OpenAI安全研究幹部が退社へ、精神的ケア対応を主導

メンタルヘルス対応の要が退任

モデルポリシー責任者のヴァローネ氏が年末退社
精神的苦痛へのChatGPT応答を設計

訴訟リスクと製品改善の狭間で

ユーザーの不健全な依存巡る訴訟が増加
GPT-5更新でリスク応答を最大80%削減

親しみやすさと安全性の両立

後任未定で安全システム責任者が暫定兼務
AIの感情的関与に関する設計が重要局面
@umiyuki_aiのXポスト: まあすでに知られてる話だけど、GPT-4oのリリース時、OpenAIはチャットの利用率だけをKPIにして色んなバージョンのモデルを評価していた。テストで一番数字が良かったのがHHとかいうバージョンで、メチャクチャ人間に媚びてくる。これは良くないのでは?という社内の声はもみ消され…
詳細を読む

OpenAIChatGPTの安全性研究を主導してきたアンドレア・ヴァローネ氏が、年末に退社することが明らかになりました。同氏は、精神的苦痛を訴えるユーザーへのAIの応答指針を策定する「モデルポリシー」チームの責任者を務めています。

ヴァローネ氏の退社は、AIに対するユーザーの依存やメンタルヘルスへの影響が懸念される中での決定です。同社に対しては、ChatGPTへの不健全な愛着が精神的な破綻を助長したとする訴訟も複数提起されており、監視が強まっています。

同氏は10月、専門家と協議した成果として、GPT-5における安全性向上のレポートを発表しました。この更新により、自殺念慮などの兆候が見られる会話において、望ましくない応答を65〜80%削減することに成功しています。

OpenAIは現在、週8億人超のユーザーに対し、AIの温かみを維持しつつ過度な依存を防ぐ舵取りを迫られています。安全対策の要が去ることで、人間とAIの適切な距離感を模索する製品開発への影響が、今後さらに注目されそうです。