近日,OpenAI 發佈了一款名爲 Privacy Filter 的新模型,旨在幫助開發者有效脫敏文本中的個人身份信息(PII)。該模型的參數規模達到了 1.5 億,採用了混合專家(MoE)設計,並以 Apache 2.0 協議在 Hugging Face 和 GitHub 平臺開源,供開發者下載、定製和商業使用。

Privacy Filter 的核心優勢在於其深度語言理解能力,能夠通過上下文識別非結構化文本中的敏感信息。與傳統的基於規則的隱私過濾工具不同,該模型能夠準確保留公開信息的同時,對與特定個體相關的敏感數據進行遮蓋或脫敏。這一能力使得開發者在訓練管線、索引流程、日誌記錄和審覈環節中,能夠構建更爲強大的隱私保護機制。
該模型能夠支持高達 12.8 萬個 Token 的上下文窗口,並通過受限維特比算法解碼出連貫的片段。在評估中,Privacy Filter 在 PII-Masking-300k 基準測試中表現出色,F1 分數達到了 96%。經過對評估中發現的標註問題進行修正後,該模型的 F1 分數進一步提升至 97.43%,顯示了其在識別個人敏感信息方面的高效性。
OpenAI 表示,Privacy Filter 並不是匿名化工具,無法替代合規認證。在法律、醫療和金融等高敏感性場景中,人工審覈及領域特定的評估和微調仍然是必不可少的。此外,Privacy Filter 的設計旨在保護用戶的隱私,能夠在本地設備上運行,用戶在使用 AI 工具時,不必擔心個人信息泄露。
