在 AI 編程的軍備競賽中,Anthropic剛剛投下了一枚足以改寫戰局的“核武”。

就在今日,Claude正式宣佈其 100萬 Token 上下文窗口 全面上線。這不僅是一個數字的堆砌,更意味着 AI 真正擁有了“超長工作記憶”。100萬 Token 是什麼概念?它相當於一次性讀完750萬個英文單詞,或者把整套《哈利·波特》系列翻上7倍。

image.png

對於開發者來說,這簡直是夢寐以求的“神器”。以前,面對龐大的代碼庫,你不得不手動切分文件、做有損摘要,生怕 AI “轉頭就忘”。而現在,你可以把一整個工程、數千頁的合同、甚至是一整套設計系統的截圖,一股腦全部塞給Claude

image.png

更狠的是,Anthropic這次在定價上玩了一手“降維打擊”。不同於某些友商超過20萬 Token 就要收溢價的套路,Claude Opus4.6Sonnet4.6實行全窗口一口價,長上下文不再是奢侈品。

面對“大海撈針”的細節檢索測試,Opus4.6拿到了78.3% 的驚人高分,穩居同類模型第一。它不僅看得多,而且記得準,能精準關聯海量信息中的關鍵邏輯。

隨着Claude Code年化收入狂飆,連 OpenAI 的總裁Greg Brockman都忍不住感嘆,這種不用親手寫代碼的自由讓人大腦卸下了重擔。當 AI 的記憶不再有天花板,程序員的角色正在被重新定義——從辛苦搬磚的“碼農”,變成指揮萬千 AI 智能體艦隊的“CEO”。

這場關於“工作記憶”的戰爭,Anthropic顯然已經佔據了高地。下一個被顛覆的,又會是誰?