カリフォルニア州、AI安全新法案を可決 大手ITに報告義務

規制・法務運用インフラ
詳細を読む

カリフォルニア州で、AIの安全性確保を目指す新たな法案「SB 53」が議会を通過し、現在ニューサム知事の署名を待っています。この法案が成立すれば、OpenAIやGoogleといった売上5億ドル超の大手IT企業に対し、最も高性能なAIモデルの安全性テストに関する報告書の公表が義務付けられます。

今回の法案は、2024年に否決された「SB 1047」の修正版です。前法案がAIによる損害の法的責任を企業に負わせる厳しい内容だったのに対し、「SB 53」は自己報告と透明性の確保に重点を置いています。この変更により、IT業界からの反発は以前より和らいでいる模様です。

AI企業の反応は分かれています。Anthropicは法案への支持を表明し、Metaも「正しい方向への一歩」と評価しています。一方、OpenAIや大手ベンチャーキャピタルのAndreessen Horowitzは、州ごとの規制ではなく連邦政府による統一基準を設けるべきだと主張しています。

法案を提出したスコット・ウィーナー上院議員は、連邦政府のAI規制が進まない現状に危機感を示しています。特にトランプ政権がIT業界の意向を強く受け、安全性よりも経済成長を優先していると指摘。そのため、カリフォルニア州が率先してルール作りを主導する必要があると強調します。

この法案が特に重視するのは、AIが悪用された場合の壊滅的なリスクです。具体的には、生物兵器や化学兵器の開発、国家規模のサイバー攻撃、多数の人命を脅かす事態などを想定しています。AI開発者自身から、こうしたリスクへの懸念の声が上がったことが法案提出のきっかけでした。

法案には、大手IT企業の従業員がAIの安全に関する懸念を政府当局へ報告できる保護された仕組みの創設も含まれます。さらに、巨大テック企業以外もAI研究を進められるよう、州が運営する計算資源(クラウドクラスター)「CalCompute」を設立する計画も盛り込まれました。