OpenAI、推論で安全性を動的分類する新モデル公開

新モデルの特長

開発者安全方針を直接定義
推論ポリシーを解釈し分類
判断根拠を思考過程で透明化
商用利用可能なオープンモデル

従来手法との違い

ポリシー変更時の再学習が不要
大量のラベル付きデータが不要
新たな脅威へ迅速な対応が可能

性能と実用上の課題

小型ながら高い分類性能を発揮
処理速度と計算コストが課題
@umiyuki_aiのXポスト: OpenAIが突然gpt-oss-safeguardとかいうモデルをオープンでリリース。これは名前の通りセーフガードモデルで、ポリシー(規約)とテキストを入力すると、そのテキストがポリシーに沿ってOKかNGか判定してくれる。例えば動画AIサービスでエロ禁止にしたい時の入力プロン…
詳細を読む

OpenAIは2025年10月29日、開発者が定義した安全方針に基づき、AIが推論を用いてコンテンツを動的に分類する新しいオープンウェイトモデル「gpt-oss-safeguard」を発表しました。このモデルは、従来の大量データに基づく分類器とは異なり、ポリシー自体を直接解釈するため、柔軟かつ迅速な安全対策の導入を可能にします。研究プレビューとして公開され、コミュニティからのフィードバックを募ります。

最大の特徴は、AIの「推論能力」を活用する点です。開発者は自然言語で記述した安全方針を、分類対象のコンテンツと共にモデルへ入力します。モデルは方針を解釈し、コンテンツが方針に違反するかどうかを判断。その結論に至った思考の連鎖(Chain-of-Thought)」も示すため、開発者は判断根拠を明確に把握できます。

このアプローチは、従来の機械学習手法に比べて大きな利点があります。従来、安全方針を変更するには、数千件以上の事例データを再ラベル付けし、分類器を再学習させる必要がありました。しかし新モデルでは、方針テキストを修正するだけで対応可能です。これにより、巧妙化する新たな脅威や、文脈が複雑な問題にも迅速に適応できます。

例えば、ゲームのコミュニティサイトで不正行為に関する投稿を検出したり、ECサイトで偽レビューを特定したりと、各サービスの実情に合わせた独自の基準を容易に設定・運用できます。大規模なデータセットを用意できない開発者でも、質の高い安全分類器を構築できる道が開かれます。

性能評価では、社内ベンチマークにおいて、基盤モデルである「gpt-5-thinking」を上回る精度を示しました。一方で、特定の複雑なリスクに対しては、大量のデータで専用に訓練された従来の分類器に劣る場合があることや、推論プロセスに伴う計算コストと処理遅延が課題であることも認めています。

OpenAIは、社内ツール「Safety Reasoner」で同様のアプローチを既に採用しており、GPT-5画像生成AI「Sora 2」などの安全システムの中核を担っています。今回のオープンモデル公開は、こうした先進的な安全技術を広く共有し、コミュニティと共に発展させることを目指すものです。モデルはHugging Faceからダウンロード可能で、Apache 2.0ライセンスの下で自由に利用、改変、配布ができます。