国防総省とAnthropicの対立、AI軍事利用の制度的枠組みを問う

対立の経緯と影響

国防総省が供給網リスクに指定
OpenAIが代替契約を締結
ChatGPTアンインストールが295%急増
Anthropicが法廷闘争へ

AI軍事倫理の核心

自律型標的選定への反対
米市民の国内監視拒否
国防総省は法的責任は政府側と主張
既存契約の条件変更が問題の本質

民主的ガバナンスの欠如

議会の関与が事実上不在
行政の裁量のみでは不十分
法律による制度的枠組みが必要
企業の自主規制は代替にならず
詳細を読む

2026年3月、米国防総省(DoD)がAnthropicClaude供給網リスクに指定し、連邦機関へ同社技術の段階的廃止を命じたことで、AI軍事利用を巡る対立が法廷闘争にまで発展した。

対立の発端は、国防長官ピート・ヘグセスがAnthropicのCEOダリオ・アモデイに対し、AIシステムの無制限利用を認めるよう期限を設けて要求したことです。Anthropicはこれを拒否し、国内市民への監視利用禁止と完全自律型標的選定への反対という2点を堅持しました。

OpenAIが代替契約を締結したことへの反発として、ChatGPTのアンインストールが295%急増し、Claudeアプリストアの上位にランクインするなど、一般ユーザーの反応が企業の立場を直接左右する異例の展開となりました。また、OpenAIの幹部少なくとも1名が、契約の拙速さを理由に辞任しています。

この問題の本質は単なる調達紛争を超えています。国防総省が既存契約の条件変更を求めたこと自体が前例のない事態であり、スタートアップ企業にとって連邦市場参入リスクを根本的に再評価させる契機となっています。航空宇宙やサイバーセキュリティなど高リスク分野では、請負業者が安全基準や運用上の制限を課すことは通常の商業慣行であり、AIだけをその例外とすべき理由はありません。

専門家は、軍事AIのガードレールを閣僚とCEOの非公開交渉で決めるべきではなく、議会が自律型兵器や監視権限に関する法的枠組みを明確化し、国防総省が人的管理・監査・説明責任の原則を公開文書として整備すべきだと指摘します。民主主義国家の強みは透明な制度的制約にあり、行政の一方的命令によるAIガバナンスはその優位性を損なうと警告しています。