サイバー犯罪者もAI生成の低品質投稿に不満
詳細を読む
英エディンバラ大学のBen Collier氏らの研究チームが、2022年のChatGPT登場以降にサイバー犯罪フォーラムへ投稿された約9万8000件のAI関連会話を分析しました。その結果、一般のインターネットユーザーと同様に、サイバー犯罪者の間でもAI生成コンテンツへの不満が高まっていることが明らかになりました。ケンブリッジ大学、ストラスクライド大学の研究者も参加した共同研究です。
ハッキングフォーラム「Hack Forums」では、AI生成の投稿に対する苛立ちが表面化しています。「AIを使ってスレッドを作る人が多くて腹が立つ」「AIのゴミ投稿をやめろ」といった声が相次いでいます。Collier氏によると、こうしたフォーラムは本質的に社交の場であり、AIによる投稿はコミュニティの人間関係を損なうと受け止められています。また、AI生成の解説を投稿して評判を上げようとする行為は、スキルの正当性を脅かすものとして警戒されています。
セキュリティ企業Flashpointの調査でも、高度なハッカーがAI生成のプロジェクトに含まれる脆弱性やインフラ露出のリスクを認識していることが確認されました。一方で、Anthropicの最新モデル「Claude Mythos Preview」の攻撃活用の可能性を議論する動きも見られます。ただし、他のハッカーがAIに頼ることを嘲笑する投稿もあり、犯罪コミュニティ内でもAIへの評価は分かれています。
研究の結論として、低レベルのサイバー犯罪者においてAIは「本質的な混乱」をもたらしていないと指摘されています。スキルの参入障壁は大きくは下がらず、既存のビジネスモデルへの深刻な影響もないとのことです。主な影響はSEO詐欺やSNSボット、一部のロマンス詐欺など、すでに高度に自動化された領域に限定されています。
フォーラムでは、投稿の文法改善を助けるAIアシスタントなら歓迎するという声がある一方、完全にAIが投稿する機能には「AIがAIと会話するフォーラムになる」と強い拒否反応が示されています。盗難データの売買を効率化する「AI搭載マーケット」の提案に対しても、「マーケットにAIを入れるのは愚かだ」と激しく反対する声が上がっており、サイバー犯罪の世界でもAI導入への抵抗は根強いことがうかがえます。