PentagonがAnthropicを禁止指定

禁止措置の経緯と内容

Hegseth国防長官がサプライチェーンリスクに指定
トランプ政権が連邦機関でのClaude使用禁止を命令
Anthropic兵器条項拒否が対立の引き金
ウォークなAI」とPentagonが批判
民間AI企業と政府の根本的価値観対立が鮮明化

業界への構造的影響

AIベンダー選定での政治リスクが顕在化
OpenAIGoogleとの政府契約競争に影響
企業の倫理基準と政府需要の両立問題
AI規制を巡る米政府の方針が明確化
詳細を読む

米国国防長官Pete Hegseth氏は2026年2月27日、AnthropicをAIサプライチェーンリスクに指定しました。その後トランプ大統領は連邦政府機関がAnthropicのAIを使用することを禁止する命令を発しました。

この措置は、Anthropicが致死的自律兵器システムへのClaudeの無制限提供を拒否したことへの報復的な性格を持ちます。PentagonはAnthropicを「ウォーク(過剰にリベラル)なAI企業」と批判しています。

Wired・Verge・TechCrunch等複数メディアが報じるこの対立は、AIの軍事利用規制をめぐる業界全体への警告となっています。OpenAIのようにPentagonと協力する企業と、Anthropicのように倫理的境界を設ける企業の分岐が鮮明になりました。

連邦政府という巨大な顧客基盤を失うことはAnthropicのビジネスに打撃を与えますが、一方でその倫理的スタンスを評価する民間企業からの需要増加も見込まれます。ブランドポジショニングとしての側面もあります。

この事態はAIベンダーを選定する企業に「政府契約への対応」という新たな評価軸を突きつけます。国防総省との関係が将来のビジネス戦略に与える影響を各AI企業が再考せざるを得ない局面です。