AIによる肖像権侵害、法規制が本格化へ
詳細を読む
AIによる無許可の肖像生成、いわゆるディープフェイクが社会問題化する中、米国で個人の「顔」や「声」を守るための法整備が本格化しています。俳優組合などが後押しする連邦法案「NO FAKES Act」が提出され、技術の進化と個人の権利保護のバランスを巡る議論が加速。これは、AIを活用するすべての企業・個人にとって無視できない新たな法的フロンティアの幕開けです。
きっかけは、AIが生成した人気歌手の偽楽曲や、リアルな動画生成AI「Sora」の登場でした。これらは著作物の直接的な複製ではないため、既存の著作権法での対応は困難です。そこで、個人の顔や声を財産的価値として保護する「肖像権(Right of Publicity)」という法分野に、解決の糸口として注目が集まっています。
規制を求める動きは具体的です。米国では俳優組合(SAG-AFTRA)などの働きかけで、連邦レベルの「NO FAKES Act」法案が提出されました。これは、本人の許可なく作成されたデジタルレプリカの使用を制限するものです。エンタメ産業が盛んなカリフォルニア州やテネシー州では、同様の趣旨を持つ州法がすでに成立しています。
一方で、規制強化には慎重な意見も根強くあります。電子フロンティア財団(EFF)などは、この法案が表現の自由を過度に制約し、風刺や批評といった正当なコンテンツまで排除しかねないと警告。新たな「検閲インフラ」になりうるとの批判も出ており、権利保護と自由な表現の線引きが大きな課題となっています。
法整備を待たず、プラットフォームも対応を迫られています。YouTubeは、AIで生成された無許可の肖像コンテンツをクリエイター自身が削除申請できるツールを導入しました。こうした企業の自主的なルール作りが、事実上の業界標準となる可能性も指摘されており、今後の動向が注目されます。
AI技術の進化は、法や社会規範が追いつかない領域を生み出しました。AIを事業で活用する経営者やエンジニアは、肖像権という新たな法的リスクを常に意識し、倫理的な配慮を怠らない姿勢がこれまで以上に求められるでしょう。この問題は、技術開発のあり方そのものを問い直しています。