OpenAI 推出 Privacy Filter:全新 PII 脱敏模型开源上线
2026年4月27日 17:12·AIBase
近日,OpenAI 发布了一款名为 Privacy Filter 的新模型,旨在帮助开发者有效脱敏文本中的个人身份信息(PII)。该模型的参数规模达到了 1.5 亿,采用了混合专家(MoE)设计,并以 Apache 2.0 协议在 Hugging Face 和 GitHub 平台开源,供开发者下载、定制和商业使用。

Privacy Filter 的核心优势在于其深度语言理解能力,能够通过上下文识别非结构化文本中的敏感信息。与传统的基于规则的隐私过滤工具不同,该模型能够准确保留公开信息的同时,对与特定个体相关的敏感数据进行遮盖或脱敏。这一能力使得开发者在训练管线、索引流程、日志记录和审核环节中,能够构建更为强大的隐私保护机制。
该模型能够支持高达 12.8 万个 Token 的上下文窗口,并通过受限维特比算法解码出连贯的片段。在评估中,Privacy Filter 在 PII-Masking-300k 基准测试中表现出色,F1 分数达到了 96%。经过对评估中发现的标注问题进行修正后,该模型的 F1 分数进一步提升至 97.43%,显示了其在识别个人敏感信息方面的高效性。
OpenAI 表示,Privacy Filter 并不是匿名化工具,无法替代合规认证。在法律、医疗和金融等高敏感性场景中,人工审核及领域特定的评估和微调仍然是必不可少的。此外,Privacy Filter 的设计旨在保护用户的隐私,能够在本地设备上运行,用户在使用 AI 工具时,不必担心个人信息泄露。

