OpenAIが個人情報検出モデルをオープンソース公開
詳細を読む
OpenAIは2026年4月22日、テキスト中の個人識別情報(PII)を検出・除去する専用モデル「Privacy Filter」をオープンソースで公開しました。Apache 2.0ライセンスでHugging FaceとGitHubから利用でき、商用利用やモデルの改変も自由です。同社が自社のプライバシー保護ワークフローで使用しているモデルの公開版で、PII-Masking-300kベンチマークでF1スコア96%を達成しています。
Privacy Filterは通常の大規模言語モデルとは異なり、双方向トークン分類モデルとして設計されています。入力テキスト全体を一度に読み取り、前後の文脈から個人情報かどうかを判断します。たとえば「Alice」という単語が私的な個人名なのか、文学作品のキャラクター名なのかを周囲の文脈から区別できます。総パラメータ数は15億ですが、Mixture-of-Experts構造により推論時のアクティブパラメータは5000万に抑えられています。
検出対象は個人名・住所・メール・電話番号・URL・日付・口座番号・パスワードやAPIキーなどの秘密情報の8カテゴリです。128,000トークンのコンテキストウィンドウを持ち、法的文書や長大なメールスレッドも分割せずに処理できます。Viterbiデコーダにより「John Smith」のような複数語の名前も一貫した範囲として正しくマスキングされます。
企業にとっての最大の利点は、ローカル環境で完結する点です。ノートPCやブラウザ上で動作するため、機密データをクラウドに送信せずにPIIを除去できます。GDPRやHIPAAへの準拠が求められる環境でも、まずPrivacy Filterでデータを浄化してからGPT-5などの推論モデルに渡すワークフローが構築できます。
ただしOpenAIは、本モデルは「匿名化ツールやコンプライアンス認証の代替ではない」と注意喚起しています。医療・法務・金融などの高リスク領域では人間によるレビューとドメイン固有の評価が依然として重要です。それでも、少量のデータでファインチューニングすればF1スコアが54%から96%に向上した実験結果も示されており、各組織の用途に合わせた柔軟なカスタマイズが可能です。