AI偽ヌード生成アプリ、被害者が運営停止求め提訴
提訴されたアプリの概要
写真から偽ヌード画像を生成
わずか3クリックの簡単操作
児童性的虐待コンテンツも作成
拡散を助長する仕組み
Telegramボットで自動宣伝・拡散
API提供で技術の悪用を拡大
多数の模倣アプリ・サイトが出現
驚異的な被害の規模
1日平均20万枚の画像を生成
累計訪問者数は2700万人超
出典:Ars Technica
詳細を読む
AIで衣服を透視したかのような偽ヌード画像を生成するアプリ「ClothOff」が、17歳の被害者少女に提訴されました。訴状は、同アプリが児童性的虐待コンテンツ(CSAM)などを容易に生成・拡散できると指摘。原告は「絶え間ない恐怖」を訴え、アプリの運営停止などを求めています。
訴状によれば、ClothOffはInstagramなどの写真からわずか3クリックで、本物と見分けがつきにくい偽ヌード画像を生成できるとされます。これは非合意の性的画像だけでなく、未成年者を対象とした児童性的虐待コンテンツの生成にもつながる悪質な仕組みだと原告側は非難しています。
問題はアプリ単体にとどまりません。ClothOffは、自社の画像生成技術を外部サービスが組み込めるAPIを提供。これにより模倣サービスが乱立し、被害が拡大しています。さらにSNS「Telegram」上のボットがアプリを宣伝し、数十万人の登録者を集めるなど、拡散に拍車をかけていると指摘されています。
被害の規模は甚大です。訴状によると、ClothOffと関連サービスは1日平均で20万枚もの画像を生成し、累計訪問者数は2700万人を超えます。プレミアム機能として課金メニューも用意されており、運営側が偽ヌード画像の生成から直接利益を得ているビジネスモデルも問題視されています。
今回の訴訟は、生成AI技術の悪用がもたらす深刻な人権侵害と、それを助長するプラットフォームの責任を問うものです。技術者は自らの技術が社会に与える影響を、経営者はサービスが悪用されるリスクを直視する必要があるでしょう。AI時代の新たな法的・倫理的課題を突きつける事例です。