2026年3月5日,美國國防部正式將人工智能獨角獸Anthropic及其產品認定爲“供應鏈風險”,這一史無前例的裁定標誌着頂級AI實驗室與政府軍事訴求之間的矛盾徹底激化。

據彭博社援引國防部高層消息,此次認定源於雙方長達數週的對峙:Anthropic首席執行官達里奧·阿莫迪明確拒絕軍方將其AI系統用於對美公民的大規模監控,或驅動缺乏人類干預的完全自主武器;而五角大樓則堅稱私人承包商不應限制軍方對前沿技術的使用。

Claude

此次定性對行業格局產生劇烈衝擊,因爲“供應鏈風險”標籤此前通常僅針對外國敵對勢力。受此影響,任何與五角大樓合作的機構均須證明其未使用Claude系列模型。目前,美軍在伊朗等中東地區的軍事行動高度依賴集成在Palantir Maven系統中的Claude模型進行作戰數據管理,禁令可能導致現行軍事智能體系面臨重構。

與Anthropic的堅守不同,OpenAI已與國防部達成協議,允許軍方將其系統用於“所有合法用途”,其總裁格雷格·布羅克曼近期更向相關政治組織捐贈2500萬美元。對此,阿莫迪斥責國防部的行動具有“報復性”,並暗示這與他拒絕支持特定政治立場有關。

目前,OpenAI與谷歌內部數百名員工已發起抗議,呼籲撤銷此類認定。此次事件不僅暴露了AI企業在軍事倫理與商業准入之間的艱難抉擇,更預示着前沿AI治理正進入由政府意志主導的強力監管時代,科技企業的自主權正面臨嚴峻挑戰。