最新の報道によると、グーグルは内部チップユーザーからチップ小売業者へと転換しており、直接NVIDIAの市場支配的地位に挑戦しています。グーグルが新たに発表したTPUv7「テム」プロセッサの存在は、AI計算能力の価格に影響を与え、市場価格を下落させています。
以前、グーグルのテンソル処理ユニット(TPUs)はほぼすべて自身のAIモデルで使用されていましたが、現在の戦略は変化しています。分析機関SemiAnalysisの研究によると、グーグルは積極的に第三者にそのTPUチップを販売しており、NVIDIAとの競争を図っています。新規顧客のAnthropicは約100万個のTPUに関する契約を締結し、直接ハードウェアを購入するか、グーグルクラウドプラットフォームを通じてリースする形態となっています。

図の出典コメント:画像はAIによって生成され、画像のライセンス提供者はMidjourneyです。
この競争効果は市場でも現れています。SemiAnalysisの報告書によると、OpenAIはTPUや他の代替手段への移行を脅威として提示し、NVIDIAのハードウェアで約30%の割引を成功裏に交渉しました。アナリストは冗談のように言いました。「TPUを購入すればするほど、NVIDIA GPUのコストを節約できます。」
グーグルのTPUはトップレベルのAIモデルのトレーニングを支えることができることを証明しています。最近発表された2つの強力なAIモデル、グーグルのGemini3ProとAnthropicのClaude4.5Opusは、主にグーグルのTPUとアマゾンのTrainiumチップに依存しています。TPUv7は理論的な計算能力とメモリ帯域幅においてNVIDIAのBlackwellシリーズとほぼ同等ですが、コスト面では優位性があります。
SemiAnalysisのモデルによると、TPUの各チップは全体所有コスト(TCO)で約44%の優位性を持ち、NVIDIAのGB200システムよりも外部顧客であるAnthropicでも30%〜50%の低コストを享受できます。グーグルのシステムは9216個のチップを接続して密なネットワークを形成でき、従来のNVIDIAシステムに比べて、分散型AIトレーニングに適しています。
TPUの拡大促進のために、グーグルは人気のあるPyTorchフレームワークのネイティブサポートを開発し、vLLMなどの推論ライブラリと統合することで、開発者がTPUに移行する際の障壁を排除することを目指しています。
しかし、グーグルの挑戦に対し、NVIDIAは技術的反撃を準備しています。次世代の「Vera Rubin」チップは2026年または2027年に発売される予定です。一方で、グーグルのTPUv8計画は遅延しているものの、BroadcomやMediaTekとの協力を通じて新しいバージョンを発売することで、市場競争力を維持しようとしています。
ポイント:
💡 グーグルは内部チップユーザーから小売業者へと転換し、TPUv7でNVIDIAの市場支配地位に挑戦しています。
📉 OpenAIはTPUへの移行により、約30%のコスト削減に成功しました。
⚙️ グーグルはTPUの開発と普及を積極的に進め、ソフトウェアの適合性の障壁を突破しようと努力しています。
