2026年3月5日、米国国防省は人工知能のユニコーン企業Anthropicおよびその製品を「サプライチェーンリスク」と認定しました。この画期的な判断は、トップAI研究所と政府の軍事的要請との間の対立が完全に高まったことを示しています。

ブルームバーグ通信によると、今回の認定は双方の数週間続いた対立に起因しています。AnthropicのCEOであるダリオ・アモディ氏は、軍部が自社のAIシステムを米国の市民に対する大規模な監視や、人間の介入がない完全自律型兵器に使用することを明確に拒否しました。一方で五角庁は、民間契約者が軍部が先端技術を使用することを制限してはならないと主張しています。

Claude

この評価は業界構造に大きな衝撃を与えました。「サプライチェーンリスク」のラベルはこれまで外国の敵対勢力に対してのみ使われていました。これにより、五角庁と協力しているすべての機関は、Claudeシリーズモデルを使用していないことを証明する必要があります。現在、米軍はイランなどの中東地域での軍事行動において、Palantir Mavenシステムに統合されたClaudeモデルを使って作戦データ管理を行っており、禁令によって既存の軍事インテリジェンスシステムが再構築される可能性があります。

Anthropicとは異なり、OpenAIは国防省と合意に達し、軍部が自社システムを「あらゆる合法的な用途に」使用できるようにしました。同社の社長であるグレッグ・ブロックマン氏は最近、関係する政治団体に2,500万ドルを寄付したこともあります。これに対し、アモディ氏は国防省の行動は「報復的なもの」であり、彼が特定の政治的立場を支持しなかったことに関係していると示唆しました。