Anthropic Mythos不正アクセス事件の波紋
詳細を読む
Anthropicが「危険すぎて一般公開できない」として限定提供していたAIモデルClaude Mythosが、不正アクセスを受けていたことが判明しました。Bloombergの報道によると、少数の不正ユーザーがMythos発表当日からアクセスしていました。手口はAIデータ企業Mercorの情報漏洩で得たAnthropicのモデル情報と、契約評価者の内部知識を組み合わせた「推測」という、サイバーセキュリティ業界では20年来の基本的な攻撃手法でした。
英シンクタンクRUSIの研究者ピア・ヒューシュ氏は、この事件を一言で「屈辱」と表現しました。AI安全性の最前線を標榜し、責任あるAI開発を掲げてきたAnthropicが、初歩的な脆弱性を放置していた事実は、同社のブランドに深刻な打撃を与えています。セキュリティ研究者ルーカス・オレイニク氏も、Anthropicはモデル利用のログ追跡が可能であったにもかかわらず、限定公開中の監視が不十分だったと指摘しています。
一方、セキュリティ専門家のブルース・シュナイアー氏とバラス・ラガヴァン氏はIEEE Spectrumへの寄稿で、Mythosの能力を「漸進的だが重要な一歩」と位置づけました。AIによる脆弱性発見の自動化は数年前から予見されていた流れであり、問題はこの現実にどう適応するかだと論じています。パッチ適用が容易なシステムでは防御側が優位に立つ一方、IoT機器やレガシーシステムなどパッチ困難な領域では深刻なリスクが残ると分析しています。
両氏は今後のセキュリティ対策として、防御用AIエージェントによる継続的な脆弱性テスト(VulnOps)の標準化、パッチ不可能なシステムへの多層防御、最小権限の原則の徹底を提唱しました。Mythosが示したのは、AI時代のサイバーセキュリティでは攻撃側と防御側の力関係が一律ではなく、システムの特性に応じた対策の分類が不可欠だという現実です。Anthropicにとっては、安全性リーダーとしての信頼回復が急務となっています。