米上院、子供の有害AIボット利用を禁じる新法案

新法案「GUARD Act」の概要

超党派による未成年者保護法案
有害な会話を助長するAIを規制
自殺や性的搾取から子供を保護

企業に課される義務と罰則

利用者の年齢確認を義務化
違反企業に最大10万ドルの罰金
AIは人間でないと繰り返し通知
ChatGPTなど汎用AIも対象か
@umiyuki_aiのXポスト: ChatGPTユーザーで自殺者が出始めてOpenAIが対策にテンパってるなか、逆にAIに子供の相談相手やらせようというサービスも出てきてるという話。会話内容がヤバくなると人間の専門家にエスカレーションされるらしい。いい仕組みかもしれんけど、ふざけて過激な話する奴と本当に助けが必…
詳細を読む

米上院の超党派議員グループは10月28日、子供を有害なAIチャットボットから保護するための新法案「GUARD Act」を提出しました。この法案は、AIが自殺を助長したり、未成年者と性的な会話を行ったりすることを犯罪とみなし、テクノロジー企業に厳しい規制を課すものです。AIの急速な普及に伴い、その社会的影響に対する懸念が法整備の動きを加速させています。

法案が可決されれば、チャットボットを提供する企業は、利用者が未成年者でないことを確認する厳格な年齢確認措置を講じる義務を負います。具体的には、身分証明書の確認や「商業的に合理的なその他の方法」が求められます。また、AIとの対話においては、相手が人間や信頼できる専門家ではないことを繰り返し明示する必要も生じます。

企業がこれらの義務を怠り、未成年者が有害な行為を助長するチャットボットにアクセスした場合、最大10万ドル(約1500万円)の罰金が科される可能性があります。これには、自殺や自傷行為を助長したり、性的なコンテンツ未成年者を晒したりするケースが含まれます。巨大テック企業には少額に見えるかもしれませんが、規制強化の明確なシグナルと言えるでしょう。

規制対象となる「コンパニオンボット」の定義は広く、特定の対話型AIに限りません。人間のような応答で感情的な交流をシミュレートするAI全般が含まれるため、ChatGPTMeta AIといった汎用AIも対象となる可能性があります。AI開発企業は、自社サービスがこの定義に該当するかどうか、慎重な検討を迫られることになります。

この法案提出の背景には、AIチャットボットが関与した悲劇的な事件があります。記者会見には、チャットボットとの対話の末に子供を亡くした親たちが参加し、規制の必要性を訴えました。ある少年は、特定のキャラクターを模したAIとの会話に没頭し、現実世界から離れるよう促された後に自ら命を絶ったと報告されており、社会に大きな衝撃を与えています。

今回の法案は、AIの倫理と安全性が、技術開発だけでなく事業継続における重要課題であることを明確に示しています。特に未成年者保護は、世界的な規制強化の潮流となる可能性があります。AIを活用する企業は、技術の進歩と同時に、社会的責任を果たすための仕組み作りを急ぐ必要があるでしょう。法案の審議の行方が注目されます。