Meta監督委員会がディープフェイク対策の抜本改革を要求
監督委の主な指摘
自己申告依存の検出体制に限界
紛争時の偽情報拡散速度に未対応
TikTok発コンテンツの越境拡散が課題
C2PA標準の実装が不十分
求められる対応策
AI生成コンテンツの独立基準新設
高リスクAIラベルの適用拡大
違反時の罰則透明化を要求
自社AI出力のラベル整備も急務
出典:The Verge
詳細を読む
Meta監督委員会は、Metaのディープフェイク検出体制が「十分に堅牢でも包括的でもない」と指摘し、AI生成コンテンツのラベル付けと検出方法の抜本的な見直しを求めました。この勧告はFacebook、Instagram、Threadsの全プラットフォームが対象です。
調査のきっかけは、昨年イスラエルの建物被害を捏造したAI動画がMetaのプラットフォームで拡散された事案です。監督委は中東での「大規模な軍事的緊張」が高まる今、正確な情報へのアクセスが人々の安全に不可欠だと強調しています。
監督委は現行のラベル付けがユーザーの自己申告に過度に依存していると批判しました。問題のコンテンツはTikTokで発生し、その後Facebook、Instagram、Xに拡散しており、プラットフォーム横断の課題も浮き彫りになっています。
具体的な改善策として、ディープフェイクに対応した誤情報ルールの改定、AI生成コンテンツ専用のコミュニティ基準の新設、AI検出ツールの強化、そしてC2PA(Content Credentials)の採用拡大が挙げられています。
特に懸念されているのは、Metaが自社AIツールで生成したコンテンツにさえC2PA標準を一貫して適用していない点です。Instagramのモッセリ責任者も昨年、写真・動画の真正性確認の改善が必要だと認めており、監督委の勧告は社内の問題意識とも一致しています。