Google、AIで開発されたゼロデイ攻撃を初めて検出し阻止

AI悪用の攻撃手法

AI生成のゼロデイ攻撃を初確認
二要素認証信頼前提を突くロジック欠陥
幻覚的CVSSスコアなどLLM関与の痕跡
大規模攻撃キャンペーンの未遂

GoogleのAI防御策

Big Sleepによる脆弱性の事前検出
CodeMender脆弱性を自動修正
ペルソナ型脱獄など新たな攻撃手口の把握
AI基盤への攻撃拡大への警戒
詳細を読む

Google Threat Intelligence Group(GTIG)は2026年5月11日、AIを利用して開発されたと見られるゼロデイエクスプロイトを初めて検出し、大規模攻撃を未然に阻止したと発表しました。著名なサイバー犯罪グループが、オープンソースのウェブベースシステム管理ツールの二要素認証を回避する目的で、このエクスプロイトを大量攻撃に使用する計画でした。

このエクスプロイトはPythonスクリプトで構成されており、コード中に「幻覚的なCVSSスコア」やLLMの訓練データに特徴的な教科書的フォーマットが含まれていました。開発者がハードコードした信頼前提を悪用する高レベルなセマンティックロジックの欠陥を突く手法であり、AIの支援なしには発見が困難な脆弱性を効率的に特定していたことが示唆されます。

GTIGの報告書では、攻撃者がAIモデルに対して「セキュリティ専門家を装え」と指示するペルソナ型ジェイルブレイクの手口も詳述されています。さらに、脆弱性データベース全体をAIに読み込ませたり、OpenClawを利用してAI生成ペイロードの信頼性を事前に検証するなど、攻撃の高度化が進んでいます。

防御面では、GoogleBig Sleepエージェントによるソフトウェア脆弱性の事前検出や、CodeMenderエージェントによる自動修正など、AI技術を防御側にも積極的に活用しています。Geminiに対しては分類器やモデル内保護、悪意あるアカウントの無効化で不正利用を抑制しています。

報告書はまた、攻撃者がAIシステムの自律的スキルやサードパーティデータコネクタなど、AI基盤そのものを標的にする傾向が強まっていると指摘しています。AIが攻撃と防御の双方で中心的役割を担う時代において、Googleは今回の事例を通じてAIが防御側にとっても強力なツールであることを実証したと述べています。