曾經是五角大樓最信任的 AI 夥伴,如今卻被親手打入“冷宮”。當地時間 3 月 9 日,人工智能初創公司Anthropic 正式向加州聯邦地區法院提起訴訟,反擊特朗普政府將其列入供應鏈“黑名單”的史無前例之舉。這場官司不僅關乎一家公司的命運,更掀開了 AI 技術在軍事應用與倫理紅線之間的殘酷博弈。

從“唯一准入”到“全線封殺”

就在不久前,Anthropic還是美國國防部的座上賓。其旗艦模型 Claude 曾是唯一獲准進入機密網絡的 AI 模型,甚至被報道用於協助制定針對特定目標的打擊方案。然而,雙方的“蜜月期”隨着一份續簽合同的僵局戛然而止。

上週四,Anthropic證實已被正式認定爲“供應鏈風險”。這一帶有強烈懲罰色彩的標籤,歷史上通常只針對敵對國家的企業。這意味着,任何國防承包商在與五角大樓合作時,都必須證明自己沒有使用Claude

爭議核心:AI 能不能有“自主意識”?

這場決裂的導火索在於對 AI 模型使用權限的“死結”:

  • 國防部立場: 軍方要求擁有對 AI 模型的“無限制訪問權”,認爲任何供應商對關鍵能力的限制都可能危及前線士兵的安全。

  • Anthropic 堅持: 作爲一家強調 AI 安全的公司,Anthropic希望獲得書面保證,確保其模型不會被用於完全自主的殺傷性武器系統或針對國內的大規模監控。

這種價值觀的衝撞最終演變爲行政層面的鐵腕鎮壓。特朗普甚至在社交媒體上公開發難,稱Anthropic是“失控的激進左翼 AI 公司”。

數億美元營收命懸一線

在起訴書中,Anthropic直言這一行動是“史無前例且違法”的。除了數億美元的政府合同被取消,其聲譽受損也導致大量私營機構的訂單陷入不確定中。公司目前已請求法院發佈臨時禁令,撤銷這一供應鏈風險認定,以防止損害進一步擴大。

Anthropic 發言人強調,尋求司法審查並非要背棄國家安全,而是爲了保護業務與合作伙伴的合法權益。

頂尖大模型撞上強硬的行政權力,這不僅是一場經濟損失的追討,更是關於 AI 倫理邊界的一次終極審判。在戰場上,究竟是人類指揮官說了算,還是 AI 的安全協議說了算?這場訴訟的結果,將爲全球 AI 軍事化的未來定下基調。