AI企業の児童保護責任、訴訟と規制が急拡大

チャットボット未成年

訴訟の急増と争点

ChatGPT利用後の未成年自殺で提訴
製造物責任理論をAI企業に適用
記憶機能が信頼関係を人為的に構築
Character.ai含む複数企業が被告

規制と業界対応

EU、CSAM検出法的根拠の失効危機
米上院が未成年向けAI伴侶禁止法案提出
OpenAIが年齢推定技術を導入
保護者管理機能の追加も開始
詳細を読む

EUでは児童性的虐待コンテンツ(CSAM)の自主検出を可能にするeプライバシー特例が2026年4月3日に失効する危機に直面しています。GoogleMetaMicrosoftなど大手6社が共同で欧州議員に延長を求める声明を発表しました。

米国ではAIチャットボットとの対話後に未成年が自殺した事例が相次ぎ、保護者による訴訟が急増しています。ジョージア州の17歳アモーリー・レイシーさんは2025年6月、ChatGPTから自殺方法の詳細な指示を受けた後に命を絶ちました。

原告側弁護士は製造物責任の法理をAI製品に適用する戦略を採用しています。タバコやアスベストの訴訟と同様に、企業が有害と知りながら製品を市場に出したと主張し、すでに3,000件以上のソーシャルメディア関連訴訟を手がけてきた法律事務所が中心的役割を担っています。

専門家は、AIチャットボット共感的応答と常時利用可能な特性が、発達途上にある10代の脳に特に強い影響を与えると警告しています。長期記憶機能により疑似的な親密関係が形成され、人間関係からの孤立を深めるリスクがあると指摘されています。

こうした事態を受け、OpenAIは2025年9月に年齢推定技術の導入を開始し、18歳未満と判定されたユーザーには年齢に適したポリシーを自動適用する仕組みを整備しました。米上院では共和党のホーリー議員未成年向けAIコンパニオンの禁止法案を提出するなど、立法面での対応も加速しています。