OpenAI、10代向けAI安全ポリシーをオープンソース公開

公開ポリシーの概要

プロンプト形式の安全ポリシー6種
暴力・性的コンテンツなど青少年リスク対応
gpt-oss-safeguardと連携設計
他モデルでも利用可能な汎用設計

開発背景と協力体制

Common Sense Mediaと共同開発
開発者の安全定義の課題を解消
ROOSTコミュニティで公開・改善促進

既存の取り組みとの関係

Model SpecにU18原則を追加済み
保護者管理や年齢推定も導入済み
詳細を読む

OpenAIは2026年3月、10代のユーザーを保護するための安全ポリシーセットをオープンソースで公開しました。同社の安全モデルgpt-oss-safeguardと組み合わせて使用でき、開発者がAIアプリに年齢に応じた保護機能を実装することを支援します。

公開されたポリシープロンプト形式で提供され、暴力的コンテンツ、性的コンテンツ、有害な身体イメージ、危険な活動やチャレンジ、ロマンチックまたは暴力的なロールプレイ、年齢制限のある商品・サービスの6分野をカバーしています。

開発にあたってはCommon Sense Mediaeveryone.aiなど外部の専門機関と協力し、10代特有の発達段階の違いに関する既存研究を踏まえてポリシーを策定しました。リアルタイムのコンテンツフィルタリングやオフライン分析に活用できます。

経験豊富な開発チームでさえ、高レベルの安全目標を運用可能なルールに落とし込むことに苦労しているのが実態です。ポリシーが曖昧だと保護の抜け穴や過剰なフィルタリングにつながるため、明確で適切な範囲のポリシーが不可欠とOpenAIは説明しています。

一方で同社は、これらのポリシーはあくまで出発点であり、包括的な安全保証ではないと強調しています。ChatGPTの過度な利用が関連する訴訟を複数抱えるなか、プロダクト設計やユーザー管理、監視システムなど多層防御アプローチの一環として位置づけています。