最近、OpenAIはアマゾン・AWSと380億ドル規模の長期協力契約を締結したことを発表し、これはOpenAIがAIクラウドインフラストラクチャにおいて重要な進展を遂げたことを示しています。これまでOpenAIは主にマイクロソフトのAzureによって提供されるクラウドサービスに依存していましたが、計算能力の需要が増加するにつれて、OpenAIはAWSとの協力を選択しました。

図の出典:AI生成
新規契約により、OpenAIは今後7年間でAWSのインフラストラクチャを使用し、特にAmazon EC2UltraServersを活用します。これにより、数千枚の高性能NVIDIA GB200およびGB300GPUを提供することになります。これらの強力な計算リソースは、OpenAIによる大規模なAIモデルのトレーニングおよび推論をサポートすることになります。2026年末までにこれらの計算能力をすべて使い切る予定で、2027年には拡充を続ける見込みです。
AWS最高経営責任者(CEO)のマット・ガーマン氏は、AWSのインフラストラクチャがOpenAIがAI技術の発展を推進する上で重要な支援となると述べました。ガーマン氏は、AWSが提供する広範かつ即時利用可能な計算能力が、OpenAIの大規模なAIワークロードに独自のサポートを提供すると強調しました。今回の提携は、ChatGPTなどのアプリケーションの推論だけでなく、次世代モデルのトレーニングにも貢献する予定です。
新規契約を締結する以前、マイクロソフトはOpenAIとの協力条件を調整し、OpenAIがAPI以外の製品(例えばChatGPTやSora)を任意のクラウドプラットフォームにホスティングできるようにしました。この変更により、OpenAIは自身の計算能力の需要に対応するためにより柔軟性を得ることができました。
アマゾンはまた、OpenAIのgpt-ossシリーズモデルがAmazon Bedrockプラットフォームで最も人気のあるパブリックモデルの一つとなり、Comscore、Peloton、Thomson Reutersなど多くの顧客を引きつけていると指摘しました。この協力関係の構築は、OpenAIとAWSが人工知能分野でさらに深く掘り下げて行くことを示しています。
ポイント:
🌟 OpenAIはアマゾンAWSと380億ドル規模の長期協力契約を締結し、AIクラウドインフラストラクチャを拡大しました。
💻 AWSは数千台の高性能GPUを提供し、OpenAIが大規模なモデルのトレーニングおよび推論をサポートします。
🚀 この提携により、OpenAIはAPI以外の製品を柔軟に使用でき、次世代のAIモデルの開発を促進します。
