在最近的發佈會上,數據動力公司(DDN)宣佈了其最新的 Infinia2.0對象存儲系統,專爲人工智能(AI)訓練和推理而設計。該系統聲稱可以實現高達100倍的 AI 數據加速和10倍的雲數據中心成本效率提升,吸引了衆多行業關注。
DDN 的首席執行官兼聯合創始人亞歷克斯・布扎裏(Alex Bouzari)表示:“全球500強企業中有85家在使用 DDN 的數據智能平臺來運行他們的 AI 和高性能計算(HPC)應用。Infinia 將幫助客戶在數據分析和 AI 框架方面實現更快的模型訓練和實時洞察,同時確保 GPU 效率和能耗的未來適應性。”
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
DDN 的聯合創始人、總裁保羅・布洛赫(Paul Bloch)也補充道:“我們的平臺已經在全球一些最大的 AI 工廠和雲環境中投入使用,證明了其支持關鍵 AI 操作的能力。” 據悉,Elon Musk 的 xAI 也是 DDN 的客戶之一。
在 Infinia2.0的設計中,AI 數據存儲是核心。首席技術官斯文・厄梅(Sven Oehme)強調:“AI 工作負載需要實時數據智能,消除瓶頸,加速工作流程,並在複雜的模型列舉、預訓練和後訓練、增強生成(RAG)、Agentic AI 以及多模態環境中無縫擴展。”Infinia2.0旨在最大化 AI 的價值,同時提供實時數據服務、高效的多租戶管理、智能自動化和強大的 AI 原生架構。
該系統具備事件驅動的數據移動、多租戶、硬件無關設計等特性,保證99.999% 的正常運行時間,並實現最高10倍的始終在線數據減縮、容錯網絡擦除編碼和自動化的服務質量(QoS)。Infinia2.0與 Nvidia 的 Nemo、NIMS 微服務、GPU、Bluefield3DPU 和 Spectrum-X 網絡相結合,加速 AI 數據管道的效率。
DDN 聲稱,Infinia 的帶寬可達到 TBps,延遲低於毫秒,性能遠超 AWS S3Express。其他令人矚目的參數包括,基於獨立基準測試,Infinia 在 AI 數據加速、AI 工作負載處理速度、元數據處理和對象列表處理方面均實現了100倍的提升,且在 AI 模型訓練和推理查詢速度上快25倍。
Infinia 系統支持從 TB 到 EB 的規模擴展,能夠支持超過100,000個 GPU 和100萬個同時客戶端,爲大規模 AI 創新提供了堅實基礎。DDN 強調,其系統在實際數據中心和雲部署中表現出色,能夠在從10到超過100,000個 GPU 的範圍內實現無與倫比的效率和成本節約。
超級微型公司(Supermicro)的首席執行官查爾斯・梁(Charles Liang)表示:“通過將 DDN 的數據智能平臺 Infinia2.0與 Supermicro 的高端服務器解決方案相結合,兩家公司合作建設了全球最大的 AI 數據中心之一。” 這一合作關係可能與 xAI 的 Colossus 數據中心擴展有關。