Character.AI、未成年者の自由対話を禁止し物語機能へ

未成年へのチャット提供を停止

自由形式の対話機能を全廃
代替機能Storiesを開始
安全なガイド付き体験へ移行

規制強化と法的リスクへの対応

AI依存や訴訟リスクが背景
加州等の規制当局も監視強化
業界の健全化へ先手を打つ
詳細を読む

Character.AIは25日、18歳未満のユーザーに対し、自由形式のAIチャットボット機能の提供を完全に終了しました。代わって、キャラクターと共に物語を作成するインタラクティブ機能「Stories」を導入し、未成年者がより安全かつ構造化された環境でAIと関われるようサービス転換を図っています。

今回の決定背景には、AIコンパニオンへの過度な依存やメンタルヘルスへの悪影響に対する懸念の高まりがあります。実際に同社やOpenAIに対し、ユーザーの自殺に関連する訴訟が提起されており、カリフォルニア州での規制や連邦レベルでの法案提出など、未成年者保護への社会的圧力が増しています。

新機能「Stories」は、予測不能な会話ではなく、ガイド付きのシナリオ体験を提供するものです。CEOのKarandeep Anand氏は「未成年者にとって自由対話は適切な製品ではない」と述べ、この措置を通じて業界における安全基準をリードしたいという強い意志を示しています。