AIディープフェイクヌード被害が世界の学校に拡大、28か国90校以上で確認

学校での被害拡大

28か国90校以上で被害確認
被害者は600人以上の生徒
加害者の大半は高校生男子
UNICEFは年間120万人の児童被害を推計

プラットフォームの対応

AppleGrokApp Store削除を警告
Grokは改善後も容易に生成可能
Take It Down法で48時間以内の削除義務化
英国・EUはヌード化アプリの禁止を推進
詳細を読む

AIを使った性的ディープフェイク画像の生成が世界各地の学校で深刻な問題となっています。WIREDとIndicatorの共同調査によると、2023年以降、少なくとも28か国約90校ディープフェイクによる性的虐待が報告され、600人以上の生徒が被害を受けました。UNICEFは昨年だけで120万人の児童が性的ディープフェイクの対象になったと推計しています。

被害の構図はほぼ共通しています。高校生の男子生徒がInstagramやSnapchatから女子生徒の写真を取得し、ヌード化アプリで偽のヌード画像を生成してSNSで共有します。技術的な知識がなくても数クリックで作成できるため、被害が急速に拡大しました。被害者は精神的苦痛を受け、登校できなくなるケースも報告されています。

プラットフォーム側の対応も問われています。NBCニュースの報道によると、Appleは2026年1月、Elon Musk氏のAIアプリGrokが性的ディープフェイクを放置していたことを受け、App Storeからの削除を警告しました。Grok側はコンテンツ管理の改善を行い、Appleは最終的に承認しましたが、セキュリティ研究者の検証では現在も比較的容易に性的画像を生成できる状態が続いています。

法整備学校の対応も進みつつあります。米国ではTake It Down法が成立し、プラットフォームに48時間以内画像削除を義務づけました。英国とEUはヌード化アプリそのものの禁止を進めています。一方、学校現場では対応にばらつきがあり、事件発覚から警察への通報に3日かかった例や、加害者に即座の処分がなかった例も報告されています。専門家は、学校における啓発教育と危機対応体制の整備が急務だと指摘しています。