一向以“安全、謹慎”爲核心標籤的 AI 巨頭 Anthropic,近期的表現卻讓業界大跌眼鏡。繼上週意外公開 3000 份內部文件後,本週二該公司再次發生嚴重失誤:在發佈 Claude Code 2.1.88 版本時,因打包配置錯誤,導致其核心產品的“建築藍圖”——超過 51.2 萬行源代碼被公開泄露。

這次泄露並非外部攻擊,而是純粹的人爲失誤。儘管 Anthropic 官方試圖淡化影響,稱其爲“發佈包裝問題”,但由於泄露的代碼量極其龐大且包含了模型行爲指令與工具限制邏輯,競爭對手和安全專家已開始對其進行深度的“解剖式”研究。

蝴蝶效應:OpenAI 緊急關停 Sora 或因 Claude Code 壓力

Claude Code 的強勢表現不僅讓開發者社羣興奮,也讓競爭對手感到了危機。據《華爾街日報》披露,OpenAI 在其視頻生成產品 Sora 發佈僅六個月後便決定將其“拔線”關停,主要原因之一就是爲了集中精力應對來自 Claude Code 的競爭壓力,重新聚焦於開發者與企業級市場。

這次源碼泄露無意中揭示了 Claude Code 的強大競爭力。開發者在分析泄露代碼後評價稱,這絕非簡單的 API 封裝,而是一套生產級別的、深度集成的開發體驗工具。Anthropic 在追求技術極致的同時,底層工程管理顯然未能跟上其擴張的速度。

信仰崩塌:當“最安全”的 AI 公司不再安全

Anthropic 連續兩次的低級失誤,對其精心構建的“技術守門人”形象造成了沉重打擊。在與美國國防部就 AI 責任進行博弈的關鍵時期,這種連“安裝包複覈”都無法做好的草率表現,極大地削弱了其在 AI 監管領域的話語權。

目前,GitHub 上已出現多個源碼備份倉庫,儘管官方在盡力清理,但技術細節的擴散已不可逆轉。在 2026 年激烈的 AI 競賽中,Anthropic 或許需要重新審視其內部流程:當代碼行數以十萬計增長時,單純的“科研熱忱”已無法掩蓋其系統性工程能力的缺失。