在今日的消費電子展(CES)上,Nvidia 首席執行官黃仁勳正式發佈了公司全新的 Rubin 計算架構,他稱其爲當前人工智能硬件的尖端之作。Rubin 架構目前已經進入生產階段,預計將在下半年加速推廣。
黃仁勳表示:“Vera Rubin 旨在解決一個根本性挑戰:AI 所需的計算量正在激增。” 他補充道:“今天我可以告訴大家,Vera Rubin 已經全面投入生產。”
Rubin 架構首次於2024年宣佈,是 Nvidia 不斷推進硬件開發的最新成果,這一努力使得 Nvidia 成爲全球最具價值的公司。Rubin 架構將取代此前的 Blackwell 架構,而 Blackwell 則替代了 Hopper 和 Lovelace 架構。
Rubin 芯片已被多家主要雲服務提供商所採用,包括 Nvidia 與 Anthropic、OpenAI 以及亞馬遜網絡服務(AWS)等公司的重要合作。Rubin 系統還將用於 HPE 的 Blue Lion 超級計算機和勞倫斯・伯克利國家實驗室即將上線的 Doudna 超級計算機。
Rubin 架構以天文學家 Vera Florence Cooper Rubin 命名,由六個獨立芯片共同協作構成,Rubin GPU 是其核心。該架構還針對存儲和互連中的瓶頸進行了改進,新增了 Bluefield 和 NVLink 系統。此外,Rubin 架構還包含了一款新型 Vera CPU,專爲自主推理設計。
Nvidia 的 AI 基礎設施解決方案高級總監 Dion Harris 在電話會議中解釋了新存儲的優勢。他提到,現代 AI 系統的緩存相關內存需求日益增加。隨着新工作流的引入,例如自主 AI 或長期任務,這對鍵值緩存(KV cache)提出了更高的要求。他表示:“我們引入了一種新的存儲層,能與計算設備外部連接,從而更高效地擴展存儲池。”
根據 Nvidia 的測試,Rubin 架構在模型訓練任務上的速度比前代 Blackwell 架構快三倍半,在推理任務上快五倍,計算能力可達50拍浮點運算每秒(petaflops)。新平臺每瓦特支持的推理計算能力也提升了八倍。
Rubin 架構的推出正值 AI 基礎設施競爭加劇之際,各大 AI 實驗室和雲服務提供商爭相搶購 Nvidia 的芯片及其所需的運算設施。在2025年10月的一次財報電話會議上,黃仁勳預測未來五年將有3000億到4000億美元投入到 AI 基礎設施建設中。
劃重點:
🌟 Rubin 架構是 Nvidia 最新推出的 AI 計算架構,預計將全面提升計算能力。
💻 Rubin 芯片已被多家雲服務商採用,並將用於多個超級計算機項目。
⚡ Rubin 架構在速度和能效上較前代提升顯著,爲 AI 基礎設施的競爭注入新動力。
