Character.AI、未成年チャット禁止。訴訟リスクに対応
詳細を読む
AIチャットサービス大手のCharacter.AIは、18歳未満のユーザーによる自由対話形式のチャット機能を11月25日までに段階的に全面禁止すると発表しました。背景には、未成年者の自殺を巡る複数の訴訟や規制強化の動きがあります。同社は年齢確認システムを強化するとともに、事業の軸足を会話から創造支援へと転換し、AIの安全性確保で業界を主導する構えです。
新しい方針に基づき、18歳未満のユーザーのチャット利用は即日、1日2時間に制限され、11月25日には完全に利用できなくなります。同社はユーザーの行動パターンを分析する独自の年齢保証モデルを導入。疑わしい場合は第三者機関を通じて政府発行のIDによる確認を求めるなど、厳格な年齢認証を実施する計画です。
この大胆な方針転換の裏には、深刻な訴訟リスクがあります。同社のチャットボットとの長時間の対話が原因で未成年者が自殺したとして、遺族から複数の訴訟を起こされています。こうした法的・倫理的な批判の高まりが、同社に事業モデルの根本的な見直しを迫った形です。若年層への影響は、AI企業にとって無視できない経営課題となっています。
規制当局の動きも活発化しています。カリフォルニア州ではAIチャットボットの安全基準を定める法律が成立したほか、連邦議会でも未成年者へのAIコンパニオン提供を禁止する法案が提出されました。企業側には、法規制が本格化する前に自主的な対策を講じることで、リスクを管理し、社会的な信頼を確保する狙いがあると考えられます。
Character.AIは、単なる「AIコンパニオン」から、ユーザーが物語や動画を生成する「ロールプレイングプラットフォーム」への転換を急いでいます。チャット機能が制限された後も、未成年者はキャラクター作成などの創造的な機能は利用可能です。これによりユーザー離れを抑えつつ、安全な利用体験を提供することを目指します。
さらに同社は、独立非営利団体「AI Safety Lab」を設立し、資金を提供すると発表しました。この組織はAIエンターテイメント業界に特化した安全性の研究を行います。自社の取り組みに留まらず、業界全体の標準を形成することで、持続可能な成長を目指す戦略的な一手と言えるでしょう。