OpenAI與美國AI芯片獨角獸Cerebras聯合宣佈,將部署總計 750 兆瓦的Cerebras晶圓級系統,構建全球規模最大的高速AI推理平臺。該合作自 2026 年起分階段實施,預計 2028 年前全面投產,交易價值超 100 億美元(約合人民幣 697 億元),標誌着大模型廠商正加速擺脫對傳統GPU架構的依賴。

Cerebras的芯片以“巨無霸”著稱——單顆芯片集成 4 萬億晶體管,面積相當於數百個常規GPU之和。其核心優勢在於將計算、內存與帶寬全部集成於單一晶圓級硅片上,徹底繞開多芯片互聯帶來的延遲與能耗瓶頸。據OpenAI測算,在運行大模型時,Cerebras系統的響應速度可達基於GPU方案的 15 倍。對於追求毫秒級交互體驗的AI應用而言,這不僅是性能提升,更是體驗質變。

值得注意的是,OpenAI CEO薩姆·阿爾特曼本人正是Cerebras的早期個人投資者。雙方淵源可追溯至 2017 年——彼時OpenAI剛成立不久,便已探討與這家同年創立的芯片公司合作的可能性。法庭文件顯示,OpenAI長期尋求比英偉達更高效、更具成本效益的替代方案。過去一年,它已先後與博通聯合開發定製芯片,並採購AMD新一代MI450 加速器,如今再加碼Cerebras,顯露出其構建多元算力底座的戰略決心。

Cerebras CEO Andrew Feldman透露,雙方在 2023 年秋季啓動正式談判,並於感恩節前敲定合作意向。推動這一決策的,是市場對“極致快速計算”的空前渴求。OpenAI基礎設施負責人Sachin Katti直言:“算力直接決定我們的收入潛力。過去兩年,計算能力每年翻倍,收入增長同步攀升。”而工程師反饋顯示,現有硬件在編程輔助等高負載任務中仍顯吃力,促使公司加速引入Cerebras方案。

資本層面,Cerebras亦迎來爆發式估值躍升。據《華爾街日報》報道,公司正洽談以 220 億美元估值融資 10 億美元,較此前 81 億美元的估值接近三倍增長。儘管曾在 2024 年提交IPO申請後又撤回,但如今手握OpenAI、Meta、IBM及阿布扎比G42 等重量級客戶,其商業化路徑已然清晰。截至目前,Cerebras累計融資已達 18 億美元,尚未計入本輪新資金。

這場合作不僅關乎兩家公司的命運,更折射出AI基礎設施的深層變革:當大模型進入大規模商用階段,推理效率已成爲用戶體驗與商業變現的核心槓桿。英偉達雖仍主導生態,但晶圓級集成、定製ASIC等異構路線正被頭部玩家密集押注。未來AI的競爭,或許不再只是模型參數的比拼,而是誰能在“說出口的瞬間,就給出答案”。