甲骨文(Oracle)宣佈推出全球首個 Zettascale 雲計算集羣。這款集羣配備了高達131,072個 NVIDIA  Blackwell GPU,能夠提供高達2.4ZettaFLOPS 的峯值性能。這一強大的 AI 基礎設施使企業能夠以更高的靈活性和主權處理大規模的 AI 工作負載。

甲骨文雲基礎設施(OCI)與 NVIDIA 的先進 GPU 架構相結合,提供了可擴展的 AI 計算解決方案。這對於全球的企業和研究人員來說,都是至關重要的。NVIDIA 的副總裁 Ian Buck 表示,NVIDIA 的全棧 AI 計算平臺與甲骨文的雲服務相結合,將在前所未有的規模上提供 AI 計算能力。

image.png

這個新發展不僅支持先進的 AI 研究與開發,還確保了地區數據主權,這對醫療等行業以及 Zoom 和 WideLabs 等合作平臺尤爲重要。甲骨文雲基礎設施的 GPU 數量是其他雲服務提供商(如 AWS、Azure 和谷歌雲)的六倍。相比之下,AWS UltraClusters 只能容納20,000個 GPU,而 OCI 則提供了三倍於此的計算能力,展示了甲骨文在這一領域的巨大優勢。

甲骨文還聲稱,它是第一個提供 Zettascale AI 超級計算機的公司,達到了2.4ZettaFLOPS 的性能,而競爭對手們目前僅達到 Exascale 水平。此外,OCI 支持多種 GPU,包括 NVIDIA H200、B200和 GB200,並具備廣泛的架構可供選擇,能夠處理不同規模的 AI 工作負載。

值得一提的是,OCI 將率先提供 NVIDIA GB200Grace Blackwell 超級芯片,這些芯片的訓練速度比 H100GPU 快4倍,推理速度快30倍,這對於需要實時推理和多模態大語言模型訓練的 AI 模型來說,意義重大。

甲骨文的 AI 超級計算機不僅在規模上遙遙領先,還提供了靈活、可擴展和高度安全的 AI 基礎設施,這使得其他雲服務提供商無法匹敵。這使得甲骨文成爲企業在訓練大規模 AI 模型或利用先進計算技術時的首選

OpenAI 近期與 OCI 達成合作,以擴大其運行 ChatGPT 的能力,利用甲骨文的 AI 基礎設施滿足日益增長的生成 AI 服務需求。同時,Elon Musk 的 AI 初創公司 xAI 也正在建造自己的數據中心,計劃使用10萬個 NVIDIA 芯片,顯示出他對速度和控制基礎設施的重視。

此外,甲骨文在完成多雲戰略方面也邁出了重要一步,最近與 AWS 達成合作,推出 Oracle Database@AWS 服務,進一步增強了其雲基礎設施的靈活性和選擇性。

劃重點:  

🚀 甲骨文推出全球首個 Zettascale AI 超級計算機集羣,搭載131,072個 NVIDIA Blackwell  GPU,提供2.4ZettaFLOPS 的性能。  

🌍 甲骨文雲基礎設施在 GPU 數量上領先,支持多種 GPU 架構,滿足不同規模的 AI 需求。  

🤝 甲骨文與 OpenAI 合作,擴展 AI 基礎設施,同時與 AWS 合作推出 Oracle Database@AWS 服務。