カリフォルニア州AI新法、安全性テストより透明性重視

規制・法務運用

新法の概要

大手企業に安全対策の公開を義務付け
重大インシデントの報告義務
内部告発者の保護を規定

旧法案からの後退

義務的な安全性テストは見送り
AI停止装置(キルスイッチ)もなし
テック企業のロビー活動が影響

今後の影響

世界的なAI規制の先行指標
企業の自主的な倫理が問われる
詳細を読む

カリフォルニア州のギャビン・ニューサム知事は29日、新たなAI規制法案「フロンティアAIにおける透明性法(SB 53)」に署名しました。この法律は、大手テック企業に対し、AIモデルの義務的な安全性テストを課すのではなく、安全対策に関する情報開示を求めるものです。昨年、より厳しい規制案がテック企業の強い反対で否決されており、今回の法律は彼らの意向が大きく反映された形となりました。

新法が対象とするのは、年間収益5億ドル以上のAI開発企業です。これらの企業は、自社のウェブサイトで安全プロトコルを公開し、「壊滅的なリスク」につながる重大な安全インシデントが発生した場合は州当局に報告する義務を負います。また、安全性への懸念を提起した従業員を保護する内部告発者保護制度も盛り込まれました。

今回の法律は、昨年知事が拒否権を発動した旧法案(SB 1047)から大きく後退した内容と言えます。旧法案には、AIシステムの第三者による安全性テストや、暴走時にシステムを停止させる「キルスイッチ」の搭載が義務付けられていました。しかし、これらの厳しい規制は今回、完全に見送られることになったのです。

なぜ規制は緩やかになったのでしょうか。背景には、GoogleやOpenAIといった大手テック企業による強力なロビー活動があります。彼らは、過度な規制が技術革新を阻害すると主張し、旧法案に強く反対していました。結果として成立した新法は、企業の自主性を尊重し、強制力のある安全対策よりも「透明性」を優先する着地点となりました。

しかし、この「透明性」にも限界が指摘されています。新法は、企業が準拠すべき「国内基準や国際基準」を具体的に定めておらず、開示された安全対策が十分であるかを第三者が検証する仕組みもありません。企業の自己申告に委ねられる部分が大きく、規制の実効性を疑問視する声も上がっています。

世界のAI企業トップ50社のうち32社が拠点を置くカリフォルニア州の動向は、世界のAI規制の行方を占う上で極めて重要です。今回の州法は、世界各国の法整備における先行事例となる可能性があり、日本企業もその動向を注視する必要があります。企業の自主的なAI倫理・ガバナンス体制の構築が、これまで以上に急務となるでしょう。