在全球 AI 芯片競賽持續升溫的背景下,初創芯片公司 Positron 近日正式揭開了其全新 AI 推理芯片——Asimov 的神祕面紗。該公司宣稱,這款針對大模型(LLM)推理深度優化的芯片,在能效比(每瓦 Token 數)和性價比(每美元 Token 數)這兩個關鍵指標上,預計將達到英偉達下一代 Rubin 架構的5倍,這一激進的數據立刻引發了業內的廣泛關注。
Positron 的核心邏輯在於對傳統 GPU 架構的“減法”式重塑。Asimov 芯片捨棄了傳統計算卡中龐雜的控制電路,轉而採用一種更純粹的張量處理架構,旨在最大限度地減少能量在非計算環節的損耗。這種設計思路不僅讓 Asimov 在運行同等規模的模型時功耗更低,更極大地縮減了芯片的製造與封裝成本。Positron 團隊強調,面對當前數據中心嚴苛的電力限制,這種極致的能效表現將成爲企業部署 AI 服務的關鍵。
儘管 Asimov 展現了驚人的理論數值,但要挑戰英偉達的市場地位並非易事。目前,Positron 正致力於構建配套的編譯器與開發生態,以確保開發者能夠無縫遷移現有的 PyTorch 或 TensorFlow 模型。Asimov 芯片計劃採用先進製程工藝,並針對當前主流的 Transformer 架構進行了硬件級加固,確保在處理萬億參數模型時依然能保持高吞吐量與低延遲。
AIbase 認爲,Positron 的入局代表了 AI 芯片領域從“通用算力”向“專用推理”轉型的趨勢。如果 Asimov 能夠如期兌現其5倍效能的承諾,將可能徹底改寫大模型推理市場的成本版圖。
劃重點:
🚀 能效巔峯挑戰:Asimov 芯片宣稱其每瓦特及每美元產出的 Token 效率是英偉達未來 Rubin 架構的5倍,主打極致性價比。
🏗️ 架構精簡革新:捨棄通用計算的冗餘設計,通過專注於張量計算的專用架構,大幅降低推理過程中的能量損耗與硬件成本。
🌐 瞄準大規模推理:硬件設計針對 Transformer 架構深度優化,旨在解決萬億參數模型部署時的電力瓶頸與高昂的運營費用。
