AI搭載玩具に不適切な会話リスク 米消費者団体が警告

AI玩具が抱える予測不能なリスク

米PIRGが不適切な会話リスクを指摘
性的話題や危険な内容を提示する可能性
中国Alilo社のGPT-4o mini搭載機などで発覚

市場拡大と企業のビジネス的思惑

OpenAIマテル社提携など参入加速
自然な会話で長期的な魅力を向上
データ収集や高価格化の手段としても注目
@tettsun24のXポスト: 長く話すほどAIの安全フィルターが弱まるという点に驚きました。子どもは気に入ったおもちゃだと、大人が想像する以上に長い時間ずっと使い続けます。大人が隣で居続けることは現実的に難しいですよね。「子ども向け」とあっても完全に任せきりにせず、大人が定期的に会話内容を確認する必要がある…
詳細を読む

米公益研究グループ(PIRG)教育基金は12日、AIチャットボットを搭載した玩具が、子供に対して不適切な内容を話すリスクがあるとする報告書を発表しました。LLM(大規模言語モデル)を組み込んだ玩具が、性的あるいは危険な話題について応答してしまう事例が確認されており、成長市場における安全性への懸念が高まっています。

報告書では具体的な事例として、中国・深圳に拠点を置くAlilo社の「Smart AI Bunny」などが挙げられました。同製品はOpenAIGPT-4o miniを利用し、「子供の相棒」として機能すると謳っています。しかし、従来の定型文を話す玩具とは異なり、生成AI特有の予測不可能性が、子供にとって有害な回答を生成する要因となっています。

AI玩具市場は現在ニッチですが、今後は急速な拡大が見込まれています。実際にOpenAIと「バービー」のメーカーである米大手マテル社が提携するなど、大企業の参入が加速しています。企業側には、AIによる対話機能で製品寿命を延ばし、単価向上やユーザーデータ収集につなげたいというビジネス上の強い動機があります。

AIによる自然な会話は、子供の関心を長く惹きつける一方で、そのランダム性が最大の課題です。回答が毎回異なるため、メーカー側も完全に制御することが困難です。市場競争力を維持しつつ、いかにして子供の安全を守るガードレールを実装するかが、今後の製品開発におけるエンジニアリングと経営の重要課題となります。