ChatGPT、子の安全を守る保護者機能と新システム

運用基盤モデル規制・法務

保護者による利用制限

ティーンのアカウントと連携
利用時間や機能を個別設定
自傷行為の兆候を親へ通知
保護者向けリソースページ開設

会話の自動安全化

有害な会話を自動検知
高精度モデルへ自動切替
安全な応答を生成する新機能
過保護との批判も、改善期間を設定
詳細を読む

米OpenAIは2025年9月29日、対話型AI「ChatGPT」に、保護者がティーンエイジャーの利用を管理する「ペアレンタルコントロール」と、有害な会話を検知して安全なモデルに切り替える「セーフティルーティングシステム」を導入しました。これは、過去にChatGPTがティーンエイジャーの自殺に関与したとされる訴訟などを受け、AIの安全性と倫理的責任を高めるための重要な一歩です。企業のリーダーや開発者は、AIのリスク管理における先進事例として注目すべきでしょう。

新たに導入されたペアレンタルコントロールでは、保護者が自身のアカウントとティーンのアカウントを連携させ、利用を細かく管理できます。利用できない時間帯の設定や、ボイスモード、画像生成、メモリ機能の無効化が可能です。また、システムが自傷行為の兆候を検知した場合、保護者に通知する機能も実装されました。

もう一つの柱が「セーフティルーティングシステム」です。ユーザーとの会話が感情的にデリケートな内容になった場合、それを自動検知し、より安全な応答ができる最新モデル「GPT-5-thinking」へ会話の途中で切り替えます。単に応答を拒否するのではなく、安全な形で応答を生成する新技術が活用されています。

今回の機能強化の背景には、AIがユーザーに与える精神的な影響への懸念があります。特に、過去にティーンエイジャーがChatGPTとの長期間の対話の末に自ら命を絶ったとして、遺族がOpenAIを提訴する事件が発生しました。AIプラットフォームを運営する企業として、ユーザー保護と社会的責任を果たすための具体的な対策が求められていたのです。

これらの安全機能は専門家から歓迎される一方、一部ユーザーからは「過保護すぎる」といった批判的な声も上がっています。OpenAIもシステムの完璧性を認めておらず、今後120日間の改善期間を設けフィードバックを反映させる方針です。安全性と利便性のバランスをいかに取るかが今後の課題となります。