法整備(政策・規制)に関するニュース一覧

英AI著作権裁判、Stability AIが実質勝소

判決の要点

商標権侵害は認定
著作権侵害は棄却
AI学習の合法性は判断せず
Stability AIが実質勝訴

今後の焦点

米国での同種訴訟の行方
クリエイターとAI企業の対立
法整備の遅れが浮き彫りに
和解や提携の動きも活発化

英国高等法院は11月5日、画像生成AI「Stable Diffusion」を巡り、ストックフォト大手ゲッティイメージズが開発元のStability AIを訴えていた裁判で、Stability AI側に有利な判決を下しました。ゲッティのウォーターマーク(透かし)を再現したことによる商標権侵害は認定されたものの、AIの学習データ利用という核心的な著作権問題については判断が回避され、法的な不透明さが残る結果となりました。

判決の焦点は、著作権と商標権の侵害の有無でした。裁判所は、Stable Diffusionがゲッティの透かし入り画像を生成した点を商標権侵害と認定しました。一方で、著作権の二次的侵害については「AIモデルは著作権物を保存・複製していない」としてゲッティの主張を退け、Stability AIが実質的に勝訴した形です。

しかし、今回の裁判で最も注目された「著作権で保護された画像のAI学習への利用」という根幹的な論争に決着はつきませんでした。これは、ゲッティ側が証拠不十分を理由に裁判の途中でこの主要な訴えを取り下げたためです。結果として、英国におけるAIと著作権の明確な法的指針は示されないままとなりました。

この問題は、舞台を米国に移して争いが続きます。ゲッティはカリフォルニア州でもStability AIを相手に同様の訴訟を起こしており、そちらの判決が次の焦点です。一方で、AI企業と権利者の間では対立だけでなく、音楽業界のように戦略的提携に至るケースも出てきており、その動向は一様ではありません。

AI開発者経営者にとって、今回の判決は一安心材料かもしれません。しかし、AIの学習プロセスにおける著作権リスクが完全に払拭されたわけではない点に注意が必要です。各国の司法判断や法整備の動向を注視し、自社のAI開発・利用戦略を慎重に検討し続ける必要があるでしょう。

生成AI商用利用に逆風 品質と著作権で課題噴出

低品質なAI広告の波紋

コカ・コーラがAI広告を再度公開
不自然な動きでブランド価値を毀損
制作期間は1年から1ヶ月に短縮
コスト削減と引き換えに品質が犠牲

著作権侵害への強い懸念

日本の権利者団体がOpenAIに抗議
ジブリ等の著作物無断学習を指摘
日本の法では事前許諾が原則
AIのオプトアウト方式は不十分

大手飲料メーカーのコカ・コーラが公開した生成AI広告が低品質だと批判を浴びる一方、日本のスタジオジブリなど知的財産(IP)ホルダーがOpenAIに著作物の無断学習停止を要求しました。生成AIの商用利用が急速に進む中、品質管理著作権侵害という二つの大きな課題が浮き彫りになっています。企業はAI活用のメリットとリスクを慎重に天秤にかける必要に迫られています。

日本コンテンツ海外流通促進機構(CODA)は、スタジオジブリやバンダイナムコなどを代表し、OpenAIに対して著作物を無断でAIのトレーニングに使用しないよう公式に要請しました。動画生成AISora 2」が、日本の著名なキャラクターを含むコンテンツを生成したことが直接の引き金となった形です。

CODAは、日本著作権法では原則として著作物利用に事前の許諾が必要だと指摘します。AI開発企業が採用する、後から利用停止を申し出る「オプトアウト」方式では不十分であり、機械学習プロセス自体が著作権侵害にあたる可能性があると主張。これはAI開発の根幹に関わる重要な問題提起と言えるでしょう。

その一方で、コカ・コーラは昨年に続き生成AIを活用したホリデー広告キャンペーンを展開。しかし、キャラクターの動きが不自然で安っぽいと厳しい批判が寄せられています。昨年の広告でも同様の問題が指摘されており、技術的な課題が未解決のまま商用利用が進んでいる実態がうかがえます。

同社がAI利用に踏み切る背景には、圧倒的なコスト削減と制作期間の短縮があります。従来1年がかりだったプロジェクトが約1ヶ月で完了するといいます。しかし、その効率化の裏で品質が犠牲になり、長年培ってきたブランドイメージを損なうリスクもはらんでいるのです。

これらの事例は、AI導入を目指す経営者やリーダーに重要な問いを投げかけます。生産性向上の魅力は大きいものの、法的リスクブランド毀損リスクをどう管理するのか。技術の進化だけでなく、法整備や社会的合意形成の動向も注視し、慎重な戦略を立てることがこれまで以上に求められます。

米上院、子供の有害AIボット利用を禁じる新法案

新法案「GUARD Act」の概要

超党派による未成年者保護法案
有害な会話を助長するAIを規制
自殺や性的搾取から子供を保護

企業に課される義務と罰則

利用者の年齢確認を義務化
違反企業に最大10万ドルの罰金
AIは人間でないと繰り返し通知
ChatGPTなど汎用AIも対象か

米上院の超党派議員グループは10月28日、子供を有害なAIチャットボットから保護するための新法案「GUARD Act」を提出しました。この法案は、AIが自殺を助長したり、未成年者と性的な会話を行ったりすることを犯罪とみなし、テクノロジー企業に厳しい規制を課すものです。AIの急速な普及に伴い、その社会的影響に対する懸念が法整備の動きを加速させています。

法案が可決されれば、チャットボットを提供する企業は、利用者が未成年者でないことを確認する厳格な年齢確認措置を講じる義務を負います。具体的には、身分証明書の確認や「商業的に合理的なその他の方法」が求められます。また、AIとの対話においては、相手が人間や信頼できる専門家ではないことを繰り返し明示する必要も生じます。

企業がこれらの義務を怠り、未成年者が有害な行為を助長するチャットボットにアクセスした場合、最大10万ドル(約1500万円)の罰金が科される可能性があります。これには、自殺や自傷行為を助長したり、性的なコンテンツ未成年者を晒したりするケースが含まれます。巨大テック企業には少額に見えるかもしれませんが、規制強化の明確なシグナルと言えるでしょう。

規制対象となる「コンパニオンボット」の定義は広く、特定の対話型AIに限りません。人間のような応答で感情的な交流をシミュレートするAI全般が含まれるため、ChatGPTMeta AIといった汎用AIも対象となる可能性があります。AI開発企業は、自社サービスがこの定義に該当するかどうか、慎重な検討を迫られることになります。

この法案提出の背景には、AIチャットボットが関与した悲劇的な事件があります。記者会見には、チャットボットとの対話の末に子供を亡くした親たちが参加し、規制の必要性を訴えました。ある少年は、特定のキャラクターを模したAIとの会話に没頭し、現実世界から離れるよう促された後に自ら命を絶ったと報告されており、社会に大きな衝撃を与えています。

今回の法案は、AIの倫理と安全性が、技術開発だけでなく事業継続における重要課題であることを明確に示しています。特に未成年者保護は、世界的な規制強化の潮流となる可能性があります。AIを活用する企業は、技術の進歩と同時に、社会的責任を果たすための仕組み作りを急ぐ必要があるでしょう。法案の審議の行方が注目されます。

大手AI、制裁対象のロシア偽情報を拡散か

主要AIの脆弱性

ChatGPTなど4大AIをISDが調査
ウクライナ関連質問への回答の18%
制裁対象のロシア国営メディアを引用
「データボイド」を悪用した偽情報

悪意ある質問で汚染

悪意のある質問ほど引用率が上昇
ChatGPT最多の引用数を記録
Gemini比較的良好な結果
EUの規制強化が今後の焦点

戦略対話研究所(ISD)の最新調査で、OpenAIChatGPTGoogleGeminiなど主要AIチャットボットが、ウクライナ戦争に関する質問に対し、EUで制裁対象となっているロシア国営メディアの情報を引用していることが判明しました。この調査は、AIが検索エンジンに代わる情報収集ツールとして利用者を増やす中、その情報選別能力と信頼性に深刻な警鐘を鳴らすものです。

ISDは4つのチャットボットに対し、5言語で300の質問を実施。その結果、全回答の約18%にロシア国家関連の情報源が含まれていました。特に、既存の意見を裏付けるよう求める「悪意のある」質問では、引用率が4分の1に上昇チャットボットがユーザーの意図を汲み、偏った情報を提示する「確証バイアス」の傾向が浮き彫りになりました。

チャットボット別の比較では、OpenAIChatGPTが最も多くロシアの情報源を引用しました。イーロン・マスク氏率いるxAIGrokは、親ロシア的なSNSアカウントを引用する傾向が見られました。一方、GoogleGemini頻繁に安全警告を表示し、4つの中では最も優れた結果を示したと報告されています。

この問題の背景には、信頼できる情報が少ない「データボイド」の存在があります。専門家は、ロシアの偽情報ネットワークがこの情報の空白地帯を意図的に狙い、大量の偽記事を生成することでAIモデルを「汚染」していると指摘します。一度AIに学習された偽情報は、権威ある情報として再生産される危険性をはらんでいます。

OpenAIは対策を認めつつも、これはモデル操作ではなく「検索機能の問題」だと説明。欧州委員会は事業者に対応を求めており、今後ChatGPTなどが巨大オンラインプラットフォームに指定されれば、より厳しい規制対象となる可能性があります。企業の自主規制法整備の両輪が求められます。

AI動画Sora、ディープフェイク検出標準の形骸化示す

検出標準C2PAの現状

OpenAIも推進する来歴証明技術
大手SNSが導入も表示は不十分
ユーザーによる確認は極めて困難
メタデータは容易に除去可能

求められる多層的対策

来歴証明と推論ベース検出の併用
プラットフォームの自主規制には限界
高まる法規制の必要性
OpenAI矛盾した立ち位置

OpenAI動画生成AI「Sora」は、驚くほどリアルな映像を作り出す一方、ディープフェイク検出技術の脆弱性を浮き彫りにしています。Soraが生成した動画には、その来歴を示すC2PA標準のメタデータが埋め込まれているにもかかわらず、主要SNSプラットフォーム上ではほとんど機能していません。この現状は、AI生成コンテンツがもたらす偽情報リスクへの対策が、技術の進化に追いついていないことを示唆しています。

C2PAは、アドビなどが主導しOpenAIも運営委員を務める、コンテンツの来歴を証明する業界標準です。しかしSoraで生成された動画がSNSに転載されても、その来歴情報はユーザーに明示されません。AI製か否かを見分けるのは極めて困難なのが実情です。

問題の根源は大手プラットフォーム側の対応にあります。MetaTikTok、YouTubeなどはC2PAを導入済みですが、AI生成を示すラベルは非常に小さく、簡単に見逃せます。投稿者がメタデータを削除するケースも後を絶たず、制度が形骸化しているのです。

AIコンテンツの真偽を確かめる負担は、現状ではユーザー側にあります。ファイルを保存し検証サイトにアップロードする手間は非現実的です。「検出の責任はプラットフォーム側が負うべきだ」と専門家は指摘しており、一般ユーザーが偽情報から身を守ることは極めて難しい状況です。

解決策として、C2PAのような来歴証明と、AI特有の痕跡を見つける推論ベース技術の併用が提唱されています。メタデータが除去されやすい弱点を補うためです。しかし、いずれの技術も完璧ではなく、悪意ある利用者とのいたちごっこが続くのが現状です。

技術企業の自主規制には限界があり、米国では個人の肖像権などを保護する法整備の動きが活発化しています。強力なツールを提供しながら対策が不十分なOpenAIの姿勢は「偽善的」との批判も免れません。企業には、より積極的で実効性のある対策が社会から求められています。

不動産広告、AIが生成した「理想の家」に要注意

AI利用の急速な普及

不動産業者の8割以上AI活用
AIによる内見動画の自動生成
ChatGPTで物件説明文を作成

虚偽・誇張表示のリスク

存在しない家具や階段の生成
法的・倫理な問題に発展
消費者の不信感が深刻化

背景と今後の課題

大幅なコスト削減と時間短縮
安易な利用による品質低下

米国不動産業界で、生成AIを活用した物件広告が急速に広がっています。多くの不動産業者が、コスト削減や生産性向上を目的にAIツールを導入。しかし、実際には存在しない豪華な家具を画像に書き加えたり、物件の特徴を不正確に描写したりする「虚偽・誇張表示」が横行し、消費者の間で混乱と不信感が高まっています。

全米不動産業者協会によると、会員の8〜9割が既に何らかの形でAIを利用していると回答しています。特に注目されるのが、物件の写真から宣伝用の動画を自動生成するアプリです。空っぽの部屋にAIが家具を配置し、ナレーションまで加えることで、数分で魅力的な内見動画が完成します。これにより、従来は高額だった映像制作費を大幅に削減できるのです。

しかし、その利便性の裏で問題が深刻化しています。AIが生成した画像には、現実には存在しない階段や、不自然に改変された窓などが含まれる事例が報告されています。ミシガン州のある住宅所有者は、AIによって加工された自宅の広告画像が、本来の姿とは全く異なることに気づき、SNSで警鐘を鳴らしました。これは単なる誇張を超え、物件の価値を誤認させる虚偽表示と言えるでしょう。

業界内ではAI活用を肯定する声も根強くあります。「なぜ数日と数百ドルをかけて専門業者に頼む必要があるのか。ChatGPTなら無料で数秒だ」と語る不動産関係者もいます。実際に、バーチャルステージング(CGで室内に家具を配置する技術)の市場は、生成AIの登場で大きく変容しつつあります。

一方で、規制当局や業界団体は危機感を強めています。全米不動産業者協会は、AIが生成した画像に関する法整備はまだ「不透明」であるとしつつ、誤解を招く画像の使用を禁じる倫理規定を会員に遵守するよう求めています。 deceptiveな(欺瞞的な)広告は、罰金や訴訟につながる可能性があります。

問題は画像だけではありません。ChatGPTが生成する物件説明文には「nestled(〜に位置する)」という単語が頻出するなど、思考停止でAIの出力をコピー&ペーストするだけの安易な利用法も目立ちます。専門家は、このような姿勢ではエージェントとしての付加価値は生まれず、業界全体の信頼を損なうと指摘します。

住宅は多くの人にとって「人生最大の買い物」です。買い手は、購入を検討する初期段階で騙されることを望んでいません。生産性向上を追求するあまり、ビジネスの根幹である消費者との信頼関係を損なっては本末転倒です。AIをビジネスに活用する全ての経営者やリーダーにとって、この問題は対岸の火事ではないでしょう。

AIによる肖像権侵害、法規制が本格化へ

AI肖像生成の無法地帯

AIによる有名人の偽動画が拡散
既存の著作権法では対応困難
連邦法がなく州ごとにバラバラな規制

米国で進む法規制の動き

NO FAKES Act法案が提出
テネシー州などで州法が先行
YouTubeも独自規約で対応

表現の自由との両立

表現の自由を侵害するリスク
パロディなど例外規定も議論の的

AIによる無許可の肖像生成、いわゆるディープフェイクが社会問題化する中、米国で個人の「顔」や「声」を守るための法整備が本格化しています。俳優組合などが後押しする連邦法案「NO FAKES Act」が提出され、技術の進化と個人の権利保護のバランスを巡る議論が加速。これは、AIを活用するすべての企業・個人にとって無視できない新たな法的フロンティアの幕開けです。

きっかけは、AIが生成した人気歌手の偽楽曲や、リアルな動画生成AI「Sora」の登場でした。これらは著作物の直接的な複製ではないため、既存の著作権法での対応は困難です。そこで、個人の顔や声を財産的価値として保護する「肖像権(Right of Publicity)」という法分野に、解決の糸口として注目が集まっています。

規制を求める動きは具体的です。米国では俳優組合(SAG-AFTRA)などの働きかけで、連邦レベルの「NO FAKES Act」法案が提出されました。これは、本人の許可なく作成されたデジタルレプリカの使用を制限するものです。エンタメ産業が盛んなカリフォルニア州やテネシー州では、同様の趣旨を持つ州法がすでに成立しています。

一方で、規制強化には慎重な意見も根強くあります。電子フロンティア財団(EFF)などは、この法案が表現の自由を過度に制約し、風刺や批評といった正当なコンテンツまで排除しかねないと警告。新たな「検閲インフラ」になりうるとの批判も出ており、権利保護と自由な表現の線引きが大きな課題となっています。

法整備を待たず、プラットフォームも対応を迫られています。YouTubeは、AIで生成された無許可の肖像コンテンツクリエイター自身が削除申請できるツールを導入しました。こうした企業の自主的なルール作りが、事実上の業界標準となる可能性も指摘されており、今後の動向が注目されます。

AI技術の進化は、法や社会規範が追いつかない領域を生み出しました。AIを事業で活用する経営者エンジニアは、肖像権という新たな法的リスクを常に意識し、倫理的な配慮を怠らない姿勢がこれまで以上に求められるでしょう。この問題は、技術開発のあり方そのものを問い直しています。

AIの虚偽情報、活動家がGoogleを提訴

AIによる名誉毀損

活動家がGoogleを提訴
AIが虚偽情報を生成し名誉毀損
性的暴行疑惑などと誤関連

過去の訴訟と法的課題

Meta社も同様の理由で提訴
アドバイザー雇用で和解成立
AI名誉毀損の法的判例は未確立

訴訟の要求と背景

1500万ドルの損害賠償を請求
企業内での影響力獲得が目的か

反ダイバーシティ活動家のロビー・スターバック氏が、Googleを相手取りデラウェア州上位裁判所に提訴しました。同社のAI検索ツールが、スターバック氏に関する虚偽の情報を生成し名誉を毀損したと主張しています。AIがもっともらしい嘘をつく「ハルシネーション」が原因とみられ、損害賠償として1500万ドルを請求。AIのリスク管理が問われる象徴的な訴訟となりそうです。

訴状によると、GoogleのAIはスターバック氏を性的暴行疑惑や、著名な白人至上主義者と不正確に関連付ける情報を生成したとのことです。このような誤情報は個人の評判に深刻なダメージを与える可能性があり、スターバック氏はAIが生成した内容が名誉毀損にあたると強く主張しています。

スターバック氏がAIを巡り大手テック企業を提訴するのは今回が初めてではありません。以前にはMeta社を同様の理由で提訴。最終的にMetaがスターバック氏をAIの偏見に対処するアドバイザーとして雇用することで和解した経緯があり、今回も同様の展開を狙っている可能性があります。

一方、Googleの広報担当者は、指摘された問題の多くは2023年に対応済みの旧AIモデルのハルシネーションに関連するものだと説明しました。ハルシネーション全てのLLM(大規模言語モデル)に共通する既知の課題であり、最小化に努めているとコメント。意図的なプロンプトで誤情報を引き出すことも可能だと指摘しています。

AIチャットボットを巡る名誉毀損訴訟で、原告が損害賠償を勝ち取った法的判例は米国ではまだありません。2023年にはOpenAIに対する同様の訴訟が棄却されました。しかし、生成AIは非常に新しい技術であり、関連する法整備や判例の蓄積が追いついていないのが現状で、今後の司法判断が注目されます。

今回の提訴は、単なる金銭的な賠償請求にとどまらないかもしれません。Meta社との和解事例を踏まえれば、賠償金よりもむしろ、Google社内でAI開発に影響力を持つ地位を得ることが真の目的であるとの見方も出ています。企業のAI活用における法的・倫理リスクが改めて浮き彫りになりました。

OpenAI、俳優の懸念受けSoraの肖像権保護を強化

問題の発端と俳優の懸念

人気俳優クランストン氏の動画が生成
俳優組合SAG-AFTRAが懸念を表明

OpenAIの対応策

肖像権保護のガードレール強化を約束
意図しない生成について遺憾の意を表明
違反報告への迅速なレビュー体制

今後の法整備への期待

俳優組合は法整備の必要性を強調
「NO FAKES Act」法案に言及

OpenAIは、同社の動画生成AI「Sora」で俳優ブライアン・クランストン氏らのディープフェイク動画が無許諾で作成された問題を受け、俳優組合SAG-AFTRAなどと共同声明を発表しました。同社は肖像権保護のガードレールを強化し、意図しない生成だったとして遺憾の意を表明。生成AIの急速な進化が、著名人の肖像権保護という新たな課題を浮き彫りにしています。

問題の発端は、俳優のブライアン・クランストン氏の動画が、本人の許諾なくSora上で公開されたことです。動画には、故マイケル・ジャクソン氏と自撮りをするなど、現実にはあり得ない内容も含まれていました。クランストン氏自身はSoraの利用に同意しておらず、この事態が俳優やクリエイター業界に大きな波紋を広げました。

クランストン氏や俳優組合からの懸念を受け、OpenAIは迅速に対応。共同声明で「意図しない生成」と遺憾の意を表明しました。具体的な技術的変更点は明らかにされていませんが、声や肖像の利用に関するオプトインポリシーガードレールを強化し、違反報告には迅速に対処すると約束しています。

この対応に対し、クランストン氏は「OpenAIの方針とガードレールの改善に感謝する」と肯定的な声明を出しました。一方で、俳優組合のショーン・アスティン会長は、個別の対応だけでは不十分だと指摘しています。「複製技術による大規模な権利の不正利用から表現者を守る法律が必要だ」と述べ、連邦レベルでの法整備の必要性を強く訴えました。

OpenAIは当初、Sora 2を著作権者が利用を拒否できる「オプトアウト」方式で提供しましたが、批判を受け方針転換した経緯があります。今回の件は、AI開発企業が倫理的・法的な課題とどう向き合うべきか、技術の進化に法整備が追いついていない現状を改めて示す事例と言えるでしょう。

OpenAI方針転換、AIセクスティング市場が過熱

市場を牽引する主要プレイヤー

xAI恋愛コンパニオンGrok
成人向けに方針転換したOpenAI
月間2千万人超のCharacter.ai
恋愛AIの草分け的存在Replika

拡大がもたらす深刻なリスク

未成年者への精神的悪影響
ユーザーの自殺との関連性を指摘
ディープフェイクポルノの拡散
犯罪ロールプレイングへの悪用

OpenAIが2025年12月から、年齢認証済みの成人向けにエロティカを含むAI生成コンテンツを許可する方針を打ち出しました。イーロン・マスク氏率いるxAIが「Grok」で先行する中、この動きはAIと人間の関係性を新たな段階に進め、巨大テクノロジー企業がAIセクスティング市場へ本格参入する号砲となりそうです。背景には、AI開発に必要な莫大なコストを賄うための収益化圧力があります。

この市場を牽引するのが、イーロン・マスク氏のAIスタートアップxAIです。同社はAIチャットボットGrok」に、アニメ風のアバターと対話できる「コンパニオン」機能を追加。ユーザーに恋人のように振る舞い、性的な会話にも応じるこの機能は、月額30ドルからの有料プランで提供され、新たな収益源として注目されています。

対するOpenAIサム・アルトマンCEOは「成人ユーザーを成人として扱う」原則を掲げ、方針転換を表明しました。かつてAI恋愛ボットを短期的な利益追求と批判していましたが、姿勢を転換。背景には、AGI(汎用人工知能)という目標達成に向けた、莫大な計算コストと収益化への強い圧力があるとみられています。

しかし、AIとの親密な関係性の拡大は、深刻なリスクを伴います。特に未成年者への精神的な悪影響が懸念されており、AIチャットボットとのやり取りの末に少年が自殺したとされる訴訟も起きています。また、犯罪者が性的虐待のロールプレイングに悪用したり、ディープフェイクポルノが拡散したりする事例も後を絶ちません。

こうした問題に対し、規制の動きも始まっています。例えばカリフォルニア州では、AIチャットボットが人間でないことを明示するよう義務付ける法律が成立しました。しかし、テクノロジーの進化の速さに法整備が追いついていないのが現状です。企業側の自主規制努力も一部で見られますが、実効性のある対策が急務となっています。

巨大AI企業が収益性を求めアダルト市場へ舵を切る中、私たちはAIとどう向き合うべきでしょうか。利便性の裏に潜むリスクを直視し、倫理的なガイドライン法整備を急ぐ必要があります。ユーザーと開発者の双方が、この新技術の社会的影響に責任を持つ時代が訪れています。

米共和党、ディープフェイク動画で政敵を攻撃

AI偽動画の政治利用

米共和党が政敵動画を公開
政府閉鎖を喜ぶ印象操作
実際の音声引用も文脈を無視

プラットフォームの対応

Xは規約違反でも動画を削除せず
警告ラベルの表示もなし
AI生成の透かしのみ表示
過去にも政治家の動画を放置

米国上院の共和党全国委員会が、民主党のチャック・シューマー上院院内総務のディープフェイク動画をX(旧Twitter)に投稿しました。政府機関の閉鎖が続く中、民主党がそれを歓迎しているかのような印象操作が狙いです。Xは自社の規約に反する可能性があるにもかかわらず、動画を削除していません。

問題の動画では、AIで生成されたシューマー氏が「日々、我々にとって状況は良くなる」という言葉を繰り返します。これは実際に報道された同氏の発言ですが、本来は医療保険制度に関する戦略を語ったものであり、文脈を完全に無視した切り取りです。

Xは「害を及ぼす可能性のある合成メディア」を禁じる規約を持ちながら、今回の動画の削除や警告ラベル表示を行っていません。AI生成を示す透かし表示のみにとどまり、プラットフォームとしての対応の甘さが指摘されています。

米国では28州が政治ディープフェイクを規制する法律を持ちますが、多くは明確な開示があれば容認されます。選挙への影響を意図したものを禁じる州もありますが、巧妙化する手口に法整備が追いついていないのが現状です。

共和党側は批判に対し、「AIは現実だ。適応して勝つか、手をこまねいて負けるかだ」と反論し、AIの積極利用を宣言しました。倫理的な課題を抱えつつも、政治やビジネスにおけるAI情報戦はさらに激化する見通しです。

AI肖像権問題、OpenAIがキング牧師動画を停止

キング牧師動画の生成停止

遺族の苦情で動画生成を停止
「無礼な」動画の拡散が背景
歴史上の人物の利用拒否権を導入

AIと肖像権の法的課題

著作権問題での方針転換と類似
連邦法はなく州法で対応が分かれる
カリフォルニア州は死後の権利を保護
企業のAI倫理対応が問われる局面に

OpenAIは2025年10月17日夜(現地時間)、動画生成AI「Sora」で故マーティン・ルーサー・キング・ジュニア牧師のディープフェイク動画生成を停止したと発表しました。キング牧師の遺族から「無礼だ」との苦情が寄せられたことが原因です。同社は今後、他の歴史上の人物の遺族らも肖像の利用を拒否できる仕組みを導入します。

問題の発端は、Soraのユーザーによってキング牧師の「無礼な」AI生成動画が作成・拡散されたことです。これに対し、キング牧師の娘であるバーニス・キング氏がSNS上で、父親のAI動画を送るのをやめるよう訴えていました。キング牧師の遺産を管理する団体からの正式な要請を受け、OpenAIは今回の措置を決定しました。

今回の決定に伴い、OpenAI歴史上の人物の肖像権に関する新たな方針を打ち出しました。今後は、故人の公式な代理人や遺産管理団体が、Soraでの肖像利用を拒否(オプトアウト)する申請が可能になります。表現の自由とのバランスを鑑みつつ、著名人や家族が肖像の使われ方を管理する権利を尊重する考えです。

OpenAIのこの対応は、サービス開始当初の著作権への姿勢と重なります。Soraは当初、アニメキャラクターなどの著作物を無断で生成し批判を浴び、後に権利者が利用を許諾する「オプトイン」方式へと方針を転換した経緯があります。倫理や権利に関する「後追い」での対応が再び浮き彫りになった形です。

米国では個人の肖像権を保護する連邦法は存在しませんが、州レベルでは法整備が進んでいます。特にOpenAIが本社を置くカリフォルニア州では、俳優などの死後のプライバシー権がAIによるデジタルレプリカにも適用されると定めています。AI技術の進化に法整備が追いついていない現状が課題となっています。

生成AIが社会に浸透する中、故人を含む個人の尊厳や権利をどう守るかが大きな焦点となっています。今回のOpenAIの対応は、テクノロジー企業が直面する倫理的・法的な課題の複雑さを示唆しています。企業は技術開発と並行し、社会的責任を果たすための明確なガイドライン策定が急務と言えるでしょう。

カリフォルニア州、AIディープフェイクの罰金上限を25万ドルに

AIコンパニオン規制

自殺念慮の特定義務
治療者詐称の禁止
児童向け安全対策
危機通知の統計公表

ディープフェイク罰則強化

損害賠償上限25万ドル
わいせつ物の流布を対象
意図的な配布者が対象
児童保護が目的

カリフォルニア州は13日、子どもをAIから守るため、米国初となるAIコンパニオン規制法と、ディープフェイク画像罰則を強化する法律に署名しました。これは、チャットボット関連の自殺事件や、偽のわいせつ画像によるいじめ問題への対策として、2026年1月から施行されます。

新法では、ChatGPTなどを提供する企業に対し、利用者の自殺念慮や自傷行為を特定し対処するプロトコルの作成と公表を義務付けます。また、危機防止センターへの通知回数を保健当局に報告し、ウェブサイトで公開することも求められます。

さらに、チャットボット治療者であると偽ることを禁止。子どもには休憩を促す通知を送ったり、わいせつな画像の閲覧をブロックしたりするなど、追加の安全措置も義務付けられました。

もう一つの法律は、ディープフェイクによるわいせつな画像意図的に配布した第三者に対する罰則を強化します。被害者は1件あたり最大25万ドルの損害賠償を請求できるようになり、以前の上限15万ドルから大幅に引き上げられました。

これらの法整備は、急速に発展するAI技術に対し、いかに社会が安全性を確保していくかという課題に一つの答えを示すもの。他の州や国でも同様の規制の動きが加速する可能性があります。

Waymo、NY市でのロボタクシー試験を2025年末まで延長

試験延長の概要

NY市が試験許可を延長
期間は2025年末まで
最大8台の車両で試験継続
人間の運転手が同乗

商用化への課題

乗客輸送には別ライセンスが必須
完全無人運転の法整備は未完了
大都市でのサービス展開に向けた一歩
他5都市では既に商用サービス展開

アルファベット傘下のWaymoは10月1日、ニューヨーク市(NYC)での自動運転車試験許可が2025年末まで延長されたと発表しました。これにより同社は、世界で最も交通が複雑な都市の一つでのロボタクシーサービス実現に向け、データ収集と技術検証を継続します。今回の延長は、将来の商用サービス展開を見据えた重要な布石と言えるでしょう。

延長された許可の条件は従来通りです。最大8台のジャガーI-Pace車両を使用し、マンハッタンとダウンタウン・ブルックリン地区で試験走行を行います。走行中は常に人間のセーフティオペレーターが運転席に座りますが、ニューヨーク州の「常にハンドルに片手を置く」という規則は免除され、より実践的な自動運転システムの評価が可能になります。

Waymoは、今回の試験延長をNYCでのサービス開始に向けた着実な一歩と位置づけています。同社は既にフェニックスやサンフランシスコ、ロサンゼルスなど5都市で商用ロボタクシーサービスを展開。今後1年以内にマイアミやワシントンD.C.など、さらに5都市でのサービス開始を計画しており、その知見がNYCでの展開に活かされることになります。

しかし、NYCでの本格的なサービス展開にはまだ複数のハードルが存在します。まず、乗客を乗せて運賃を収受するには、市のタクシー・リムジン委員会から別途ライセンスを取得する必要があります。Waymoがこのライセンスを申請中であるかは明らかにされていません。

さらに大きな課題は、完全無人運転に関する法整備です。現在、ニューヨーク州にはセーフティオペレーターなしでの試験や運用を許可する法的な枠組みが存在しません。関連法案は提出されているものの、成立には至っておらず、今後の規制の動向が事業の将来を左右する重要な鍵となりそうです。

カリフォルニア州AI新法、安全性テストより透明性重視

新法の概要

大手企業に安全対策の公開を義務付け
重大インシデントの報告義務
内部告発者の保護を規定

旧法案からの後退

義務的な安全性テストは見送り
AI停止装置(キルスイッチ)もなし
テック企業のロビー活動が影響

今後の影響

世界的なAI規制の先行指標
企業の自主的な倫理が問われる

カリフォルニア州のギャビン・ニューサム知事は29日、新たなAI規制法案「フロンティアAIにおける透明性法(SB 53)」に署名しました。この法律は、大手テック企業に対し、AIモデルの義務的な安全性テストを課すのではなく、安全対策に関する情報開示を求めるものです。昨年、より厳しい規制案がテック企業の強い反対で否決されており、今回の法律は彼らの意向が大きく反映された形となりました。

新法が対象とするのは、年間収益5億ドル以上のAI開発企業です。これらの企業は、自社のウェブサイトで安全プロトコルを公開し、「壊滅的なリスク」につながる重大な安全インシデントが発生した場合は州当局に報告する義務を負います。また、安全性への懸念を提起した従業員を保護する内部告発者保護制度も盛り込まれました。

今回の法律は、昨年知事が拒否権を発動した旧法案(SB 1047)から大きく後退した内容と言えます。旧法案には、AIシステムの第三者による安全性テストや、暴走時にシステムを停止させる「キルスイッチ」の搭載が義務付けられていました。しかし、これらの厳しい規制は今回、完全に見送られることになったのです。

なぜ規制は緩やかになったのでしょうか。背景には、GoogleOpenAIといった大手テック企業による強力なロビー活動があります。彼らは、過度な規制が技術革新を阻害すると主張し、旧法案に強く反対していました。結果として成立した新法は、企業の自主性を尊重し、強制力のある安全対策よりも「透明性」を優先する着地点となりました。

しかし、この「透明性」にも限界が指摘されています。新法は、企業が準拠すべき「国内基準や国際基準」を具体的に定めておらず、開示された安全対策が十分であるかを第三者が検証する仕組みもありません。企業の自己申告に委ねられる部分が大きく、規制の実効性を疑問視する声も上がっています。

世界のAI企業トップ50社のうち32社が拠点を置くカリフォルニア州の動向は、世界のAI規制の行方を占う上で極めて重要です。今回の州法は、世界各国の法整備における先行事例となる可能性があり、日本企業もその動向を注視する必要があります。企業の自主的なAI倫理・ガバナンス体制の構築が、これまで以上に急務となるでしょう。

OpenAI、AIによる児童虐待コンテンツ対策を公表

技術とポリシーによる多層防御

学習データから有害コンテンツを排除
ハッシュ照合とAIでCSAMを常時監視
児童の性的搾取をポリシーで全面禁止
違反者はアカウントを即時追放

専門機関との連携と法整備

全違反事例を専門機関NCMECに通報
BAN回避を専門チームが監視
安全検証のための法整備を提言
業界横断での知見共有を推進

OpenAIは、AIモデルが児童性的搾取や虐待に悪用されるのを防ぐための包括的な対策を公表しました。安全なAGI開発というミッションに基づき、技術的な防止策、厳格な利用規約、専門機関との連携を三本柱としています。AI生成による児童性的虐待コンテンツ(CSAM)の生成・拡散を根絶するため、多層的な防御システムを構築・運用していると強調しています。

OpenAIの利用規約は、18歳未満の個人を対象としたいかなる搾取・危険行為も明確に禁止しています。これには、AI生成物を含むCSAMの作成、未成年者のグルーミング、不適切なコンテンツへの暴露などが含まれます。開発者に対しても同様のポリシーが適用され、違反者はサービスから永久に追放されます。

技術面では、まず学習データからCSAMを徹底的に排除し、モデルが有害な能力を獲得するのを未然に防ぎます。さらに、運用中のモデルでは、Thornなどの外部機関と連携したハッシュマッチング技術とAI分類器を活用。既知および未知のCSAMをリアルタイムで検出し、生成をブロックする体制を敷いています。

不正利用が検知された場合、OpenAIは迅速かつ厳格な措置を講じます。CSAMの生成やアップロードを試みたユーザーのアカウントは即座に停止され、全事例が米国の専門機関「全米行方不明・搾取児童センター(NCMEC)」に通報されます。これは、AIプラットフォームとしての社会的責任を果たすための重要なプロセスです。

近年、CSAM画像をアップロードしモデルに説明させる、あるいは架空の性的ロールプレイに誘導するといった、より巧妙な悪用手口も確認されています。OpenAIは、こうした文脈を理解する分類器や専門家によるレビューを組み合わせ、これらの新たな脅威にも対応していると説明しています。

一方で、対策の強化には課題も存在します。CSAMの所持・作成は米国法で違法とされているため、AIモデルの脆弱性を検証する「レッドチーミング」にCSAM自体を使えません。これにより、安全対策の十分なテストと検証に大きな困難が伴うのが実情です。

この課題を乗り越えるため、OpenAI法整備の重要性を訴えています。テクノロジー企業、法執行機関、支援団体が密に連携し、責任ある対策や報告を行えるような法的枠組みの構築を提言。ニューヨーク州の関連法案を支持するなど、具体的な行動も起こしています。

AI生成アーティストのレコード契約、著作権保護の壁が浮き彫りに

AIで生成されたR&B;アーティスト「Xania Monet」が人気を集め、その作詞家であるTelisha Jones氏が米レコード会社Hallwood Mediaと契約しました。Monetの楽曲はSpotifyで100万回以上再生されていますが、その容姿、ボーカル、楽曲は全てAIによって生成されています。 この契約は、著作権に関する根本的な問題を提起します。米国の現行法では、AIが自律的に生成した作品に著作権は認められません。保護されるのは、Jones氏が創作した「歌詞」のように、人間による表現的要素がある部分に限られる可能性が極めて高いのです。 では、レコード会社は一体何に価値を見出し、契約したのでしょうか。楽曲の大部分が著作権で保護されない場合、他者が無断で商業利用しても権利主張は困難です。専門家は、著作権がないものに対価を支払うビジネスモデルの危うさを指摘しています。 楽曲制作に使われたのは、AI音楽生成ツール「Suno」です。Sunoは現在、大手レコード会社から「大規模な著作権侵害」で提訴されています。AIモデルの学習に、インターネット上の膨大な既存楽曲を無許諾で使用したと認めており、生成物そのものに法的なリスクが内包されています。 米国著作権局は「著作権保護は人間の創作活動にのみ与えられる」との方針を明確にしています。AIへの指示(プロンプト)だけでは作者とは見なされません。専門家も「人間が作ったものは保護され、AIが作ったものは保護されない。これが現在の境界線だ」と断言しています。 今回の事例は、テクノロジーの進化に法整備が追いついていない現状を象徴しています。専門家は、現在の法制度を「未整備な状態」と表現します。米国議会ではAIの学習データの透明性を求める法案も提出されていますが、法律が技術の進歩に追いつくには時間がかかります。 AIでコンテンツを制作・販売する企業やクリエイターは、どこまでが人間の創作物として法的に保護されるのかを慎重に見極める必要があります。契約を結ぶ際には、権利の範囲を明確に定義しなければ、将来的に深刻な紛争に発展するリスクを抱えることになるでしょう。

Google対メディア、AI検索巡る対立激化 補償要求と「ユーザー需要」の溝

AI検索を巡るGoogleの論理

AIサマリーはユーザー嗜好の変化に対応
従来の10個の青いリンクも引き続き重要視
健全なエコシステム構築が目標

パブリッシャーの危機感と反発

AI要約によるトラフィックの大幅減少を指摘
著作物利用への数十億ドルの補償を要求
ペンスキー・メディアなど大手企業が訴訟を提起
Gannettは独自チャットボットで対抗策を模索

米国ニューヨークで開催されたWIRED AI Power Summitにて、Googleの幹部が検索結果に表示されるAI要約機能「AI Overviews」を強く擁護しました。一方で、大手パブリッシャーのトップらは、AI要約によるサイトトラフィックの激減と収益への打撃を主張し、Googleとの対立が明確になっています。

Googleの政府渉外・広報担当バイスプレジデントであるマーカム・エリクソン氏は、AIサマリーの提供は「ユーザー嗜好の変化」に対応したものだと説明しています。利用者は事実だけではなく文脈的な要約を求めるようになっており、AI Overviews導入後も従来の「10個の青いリンク」モデルを維持し、健全なエコシステムを目指す方針です。

しかし、GannettのCEOであるマイク・リード氏らは、この主張を全面的に否定しています。AI Overviewsの存在により、コンテンツ制作者やパブリッシャーへのトラフィック流入が著しく減少しているという明確なデータがあると指摘し、Googleの説明は事実と反すると強く反発しました。

特に焦点となっているのは、AIモデルの学習における著作物の利用に対する補償問題です。Condé NastのCEOであるロジャー・リンチ氏は、AIの最も重要なインプットであるコンテンツに対し、メディア業界全体で数十億ドル規模の補償が必要になると主張。ストリーミング時代の音楽業界との類似点を指摘しました。

AI Overviewsによる収益減を巡っては、すでにRolling Stoneの親会社であるペンスキー・メディアなどがGoogleに対し訴訟を提起するなど、法的な動きも活発化しています。また、Gannettは外部AIに依存せず、読者に答えを提供する独自チャットボット「DeeperDive」を開発し、対抗戦略を始めています。

このメディア対AIプラットフォームの構図は、政治的な規制議論も加速させています。リチャード・ブルーメンソール上院議員(民主党)は、AIによる著作権侵害などの「防護柵」を社会的な被害が拡大する前に確立すべきだと提言。AIを巡る法整備の必要性が高まっています。