リアルタイム計算の需要が高まる中、人工知能の巨頭であるOpenAIは、ハードウェア分野での大幅な拡大を進めています。水曜日、OpenAIはチップメーカーのCerebrasと複数年にわたる深い協力関係を結ぶことを正式に発表しました。この協力により、専用チップ技術を通じて現在のAI応答速度の限界を突破する狙いがあります。
1000億規模の計算リソース構築
情報筋およびロイターによると、この取引の総額は100億ドルを超えます。契約に基づき、2028年までにCerebrasはOpenAIに最大750メガワットの計算能力を提供することになります。
Cerebrasは十数年前に設立され、AI向けに設計されたGPUとは異なるアーキテクチャシステムによって、ChatGPT以降のAIブームの中で目立ちました。そのコア的な強みは性能です。Cerebrasは、AIアプリケーション処理において、NVIDIAのような従来のGPUアプローチよりもはるかに高速であると主張しています。

核となる目的:「リアルタイム推論」の実現
今回の提携の中心は、ユーザー体験の連続性を向上させることです。OpenAIはこれらのシステムが元々時間がかかる応答プロセスを大幅に短縮すると述べています。OpenAIの担当者Sachin Katti氏は、「当社の戦略は『柔軟なシステムの組み合わせ』を構築することであり、Cerebrasは専用の低遅延推論ソリューションとして、ユーザーにより自然で迅速なインタラクションの基盤を提供します」と語っています。
CerebrasCEOのAndrew Feldman氏はこれを象徴的に評価しました。「インターネットを変革したのはブロードバンドだったように、リアルタイム推論も人工知能を変えるでしょう。」
深い資本的つながりと拡大への意欲
この重要な提携は偶然ではありません。OpenAIのCEOであるSam Altman氏は以前からCerebrasの投資家であり、かつて同社の買収を検討していたことがあります。
現在、CerebrasはいくつかのIPO計画を延期していますが、プライベート市場では強いパフォーマンスを見せています。火曜日には、同社が
