Anthropic、軍事AIへの妨害能力を法廷で全面否定
詳細を読む
Anthropicの公共部門責任者ティアグ・ラマサミー氏は2026年3月20日の裁判所提出文書で、同社が米軍に導入済みのAIモデルClaudeを妨害する技術的能力を持たないと宣誓供述しました。国防総省によるサプライチェーンリスク指定への反論です。
ラマサミー氏によると、Claudeは政府のエアギャップ環境に配備されており、Anthropic社員がシステムにログインしてモデルを変更・無効化することは不可能です。リモートキルスイッチやバックドアは存在せず、更新には国防総省とクラウド事業者双方の承認が必要だと説明しています。
政策責任者のサラ・ヘック氏は、Anthropicが軍事作戦への拒否権を求めたという政府の主張を否定しました。さらに、サプライチェーンリスク指定の翌日に国防次官が「非常に近い」と評価するメールをCEOに送っていた事実を公開し、指定の正当性に疑問を投げかけています。
Anthropicは3月4日の契約案で、合法的な軍事作戦の意思決定に対する管理権や拒否権を求めないことを明文化する用意があったと主張しています。自律兵器と米国民の大量監視に関する懸念に対応する文言も受け入れる姿勢でしたが、最終的に交渉は決裂しました。
国防総省は第三者クラウド事業者と連携し、Anthropic経営陣が既存のClaudeシステムに一方的な変更を加えられないよう追加措置を講じていると表明しています。一方、Anthropicは米国企業初のサプライチェーンリスク指定が憲法修正第1条に違反するとして2件の訴訟を提起しており、3月24日のサンフランシスコ連邦地裁の審理が注目されています。