Sora 2悪用と児童性的搾取報告の急増が浮き彫りにするAI安全問題

Sora 2で作られる問題動画

子どもが登場する不審な広告動画が拡散
TikTokなどSNSを通じて広く視聴される
製作者が「子ども向けおもちゃ」と偽装して投稿
生成AIによるリアルな子ども描写が問題視
削除される前に数千人が視聴する事態に
Sora 2のリアルな映像生成能力が悪用の温床に

OpenAIのCSAM報告件数が急増

2025年上半期の報告件数が前年同期比80倍
NCMECのCyberTiplineに大量通報
報告増加は検出能力向上の結果とも解釈可能
AIによる児童搾取コンテンツの深刻化が背景
法定通報機関への義務報告制度が機能
業界全体での安全対策強化の必要性を示す
詳細を読む

Wiredの調査によると、Sora 2を使って子どもを含む不穏な動画を作成し、TikTokなどのSNSに投稿するユーザーが現れています。一部のアカウントはおもちゃのCMを装った動画を投稿し、視聴者から強い批判を受けました。

OpenAIの公開報告によると、2025年上半期に全国行方不明・搾取された子どもセンター(NCMEC)に送った児童性的搾取のインシデント報告数は、前年同期比で約80倍に急増しました。これはAI生成コンテンツを通じた児童搾取問題が深刻化していることを示しています。

報告数の急増は一方で検出精度の向上を反映している可能性もありますが、生成AIの汎用性が安全リスクを拡大させていることは否定できません。業界全体でのモデレーション体制の抜本的な強化が急務となっています。