OpenAI は、初期段階でのテストを経たものの、グーグルの TPU チップを大規模に採用しないことを発表しました。TPU(テンソルプロセッシングユニット)は、機械学習タスクのためにグーグルが独自に設計したカスタム ASIC チップで、ニューラルネットワークのトレーニングと推論を高速化することを目的としています。TPU はデータフロー駆動アーキテクチャを採用しており、効率的な行列乗算パイプライン計算によりメモリアクセス遅延を短縮します。
図の出典:画像はAIによって生成されています。画像のライセンス提供元はMidjourneyです。
OpenAI は、そのモデルのトレーニングと推論をサポートするために、引き続き英偉達(NVIDIA)の GPU および AMD の AI エンジンに依存する予定です。これは、これらの企業の製品がすでに検証されており、OpenAI とそれらの企業との間には供給契約が既に結ばれているためです。一部のメディア報道では、OpenAI が一部のタスクにおいてグーグルの AI チップを使用し始めたと伝えられましたが、関係者によると、これらは性能の低い TPU であり、グーグルが自社の Gemini 大規模言語モデル専用に設計した最新のチップは引き続き自社で使用される予定です。
OpenAI とグーグルクラウドの提携は、同社のインフラストラクチャに対する広範なニーズを満たしていますが、同社は短期的には大量の計算能力を TPU プラットフォームに移すことはないと明確に述べています。投資家やアナリストは以前、潜在的な TPU コラボレーションを OpenAI が英伟達の代替案を探しているサインと考えていたものの、モーガン・スタンリーや戦略家はこの動きがグーグルハードウェアの市場競争力の有効な検証となると述べました。
しかし、OpenAI の表明は、既存のチップパートナーとの密接な関係と、新しいハードウェアの大規模な展開の複雑さを示しています。人工知能の計算需要が継続して増加する中、OpenAI は既存の GPU-TPU ハイブリッドテストに基づいて段階的に拡張する傾向があり、TPU アーキテクチャへの全面的な切り替えは見込まれていません。このチップのロードマップは、市場に対して、NVIDIA および AMD が OpenAI の主要なサプライヤーであることを示唆しており、TPU 技術が進歩し続けるにもかかわらず、グーグルが AI ハードウェア市場での成長空間を制限する可能性があります。
今後、投資家は OpenAI の次のインフラストラクチャのアップデートやグーグルクラウドの財務報告書を注視し、TPU の使用状況の変化や新規サプライヤーの多様化の兆しを捉えることになります。
ポイント:
🌟 OpenAI は、グーグルの TPU チップを大規模に採用せず、NVIDIA および AMD に依存し続けます。
📈 TPU チップは初期テストが行われていますが、大規模な導入計画はありません。
🔍 投資家は、OpenAI のインフラストラクチャの更新とグーグルクラウドの財務報告書に注目し、TPU の使用状況を確認します。