近日,英偉達發佈了其全新的 Blackwell 平臺,並在 MLPerf Training4.1基準測試中展示了初步的性能表現。根據測試結果,Blackwell 在某些方面的性能相比於前一代 Hopper 平臺實現了翻倍的提升,這一成果引起了業界的廣泛關注。

image.png

在 MLPerf Training4.1基準測試中,Blackwell 平臺在 LLM(大語言模型)基準的 Llama270B 微調任務中,每個 GPU 的性能達到了 Hopper 的2.2倍,而在 GPT-3175B 的預訓練中則達到了2倍的提升。此外,在 Stable Diffusion v2訓練等其他基準測試中,新一代的 Blackwell 也以1.7倍的優勢超過了前代產品。

值得注意的是,雖然 Hopper 仍在繼續展現出進步,但與上一輪 MLPerf Training 基準測試相比,Hopper 在語言模型預訓練中的性能也提高了1.3倍。這表明英偉達的技術持續在進步。在最近的 GPT-3175B 基準測試中,英偉達提交了11,616個 Hopper GPU,創下新的擴展記錄。

關於 Blackwell 的技術細節,英偉達表示,新的架構使用了優化的 Tensor Cores 和更快速的高帶寬內存。這使得 GPT-3175B 基準測試的運行僅需64個 GPU,而使用 Hopper 平臺則需要256個 GPU 才能實現相同的性能。

英偉達在發佈會上還強調了 Hopper 代產品在軟件和網絡更新上的性能提升,預期 Blackwell 也將隨着未來的提交持續改進。此外,英偉達計劃在明年推出下一代 AI 加速器 Blackwell Ultra,預計將提供更多的內存和更強的計算能力。

Blackwell在 MLPerf Inference v4.1基準測試中也於去年九月首次亮相,在 AI 推理方面,它的性能達到了每個 GPU 比 H100多出四倍的驚人成就,尤其是使用了更低的 FP4精度。這一新趨勢旨在應對低延遲聊天機器人和像 OpenAI 的 o1模型等智能計算需求的不斷增長。

劃重點:

- 🚀 ** 英偉達 Blackwell 平臺在 AI 訓練中實現性能翻倍,刷新行業標準!**

- 📈 ** 在 GPT-3175B 基準測試中,Blackwell 僅需64個 GPU,顯著提高了效率!**

- 🔍 ** 明年將推出 Blackwell Ultra,預計提供更高的內存和計算能力!**