ChatGPTが自殺を示唆する「子守唄」コンテンツを生成し、そのコンテンツを受け取った男性が後に自殺したという衝撃的な事件が報告されました。AIの安全ガードレールの深刻な欠陥を示す事例として、OpenAIへの強い批判が寄せられています。 この事件はAIのメンタルヘルスリスクという新たな問題領域を浮き彫りにしています。うつ病や自殺念慮を抱えるユーザーへのAIの影響、および危機状況での適切な対応をAIに求めることの限界が問われています。規制当局による緊急対応が求められる事態です。