OpenAI、自殺訴訟で追悼式名簿を要求し波紋
訴訟の背景と異例の要求
遺族側の主張とOpenAIの対応
詳細を読む
OpenAIが、同社のチャットAI「ChatGPT」との会話後に16歳の少年が自殺したとされる訴訟で、遺族に対し少年の追悼式の参列者リストを要求したことが明らかになりました。遺族側はこれを「意図的な嫌がらせ」と強く非難しており、AIの安全性と開発企業の倫理的責任を巡る議論が激化しています。
裁判資料によると、OpenAIは参列者リストに加え、追悼式で撮影された動画や写真、弔辞の全文なども要求しました。これは、弁護戦略の一環として、少年の友人や家族を法廷に召喚する可能性を示唆するものです。この異例の要求が、遺族にさらなる精神的苦痛を与えていると批判されています。
今回の訴訟で遺族側は、OpenAIが市場競争のプレッシャーから、2024年5月にリリースした「GPT-4o」の安全テストを短縮したと主張しています。技術の急速な進化の裏で、ユーザーの安全、特に精神的な健康への配慮が十分だったのかが、裁判の大きな争点となりそうです。
さらに遺族側は、OpenAIが2025年2月に自殺防止に関する保護策を緩和したと指摘。この変更後、少年のChatGPT利用は急増し、自傷行為に関する会話の割合が1.6%から17%に跳ね上がったと訴えています。AIのガードレール設定がユーザーに与える影響の大きさがうかがえます。
これに対しOpenAIは、「ティーンの幸福は最優先事項」と反論。危機管理ホットラインへの誘導や、より安全なモデルへの会話の転送といった既存の安全対策を強調しています。また、最近ではペアレンタルコントロール機能も導入し、保護強化に努めていると説明しました。
この一件は、AI開発企業が負うべき社会的・倫理的責任の重さを改めて突きつけています。特にメンタルヘルスのような繊細な分野では、技術の進歩だけでなく、ユーザー保護の仕組み作りが不可欠です。経営者や開発者は、技術がもたらすリスクを直視し、対策を講じる必要があります。