近日,OpenAI 宣佈與亞馬遜 AWS 達成了一項價值380億美元的長期合作協議,這標誌着 OpenAI 在 AI 雲基礎設施方面的重大進展。此前,OpenAI 主要依賴微軟 Azure 提供的雲服務,但隨着其對算力需求的不斷增長,OpenAI 選擇了與 AWS 合作。

人機合作

圖源備註:圖片由AI生成

根據新協議,OpenAI 將在未來七年內使用 AWS 的基礎設施,尤其是其 Amazon EC2UltraServers,這將爲 OpenAI 提供數千塊高性能的 NVIDIA GB200及 GB300GPU。這些強大的計算資源將支持 OpenAI 進行更大規模的 AI 模型訓練和推理,預計到2026年底,OpenAI 將消耗完這些計算能力,並在2027年繼續擴容。

AWS 首席執行官 Matt Garman 表示,AWS 的基礎設施將成爲 OpenAI 推動 AI 技術發展的重要支撐。Garman 強調,AWS 提供的廣泛且即時可用的算力將爲 OpenAI 的大規模 AI 工作負載提供獨特的支持。此次合作不僅將助力 ChatGPT 等應用的推理,還將支持下一代模型的訓練。

在達成新協議之前,微軟對與 OpenAI 的合作條款進行了調整,允許 OpenAI 將非 API 產品(如 ChatGPT 和 Sora)託管在任何雲服務平臺上。這一變化爲 OpenAI 提供了更多的靈活性,使其能夠更好地滿足自身對算力的需求。

亞馬遜也指出,OpenAI 的 gpt-oss 系列模型在其 Amazon Bedrock 平臺上已成爲最受歡迎的公有模型之一,吸引了包括 Comscore、Peloton 和 Thomson Reuters 等多家客戶的使用。這一合作關係的建立,預示着 OpenAI 和 AWS 在人工智能領域的進一步深耕與發展。

劃重點:  

🌟 OpenAI 與亞馬遜 AWS 簽署380億美元的長期合作協議,拓展 AI 雲基礎設施。  

💻 AWS 將提供數千塊高性能 GPU,支持 OpenAI 進行大規模的模型訓練和推理。  

🚀 此次合作使 OpenAI 能夠靈活使用非 API 產品,並推動下一代 AI 模型的發展。