據 SemiAnalysis 最新報告,自2024年5月 GPT-4o 發佈以來,OpenAI 尚未完成任何一次“面向下一代前沿模型”的大規模預訓練部署,其頂尖團隊多次嘗試擴展參數與數據規模,均因收斂困難或性能倒掛而中途叫停。這導致被外界寄予厚望的 GPT-5系列實質上仍是 GPT-4o 的優化變體,未能實現架構級突破。

與此同時,谷歌 TPUv7已在 Gemini3等模型上完成大規模預訓練驗證,同等算力集羣的總體擁有成本(TCO)比英偉達方案低約30%。SemiAnalysis 指出,OpenAI 甚至“尚未真正部署 TPU”,僅傳出評估消息,就迫使英偉達在現有 GPU 集羣報價上讓步,爲 OpenAI 節省約三成成本——側面凸顯 TPU 的性價比優勢。

行業觀點認爲,預訓練 Scaling 定律正遭遇數據、算力與模型配方三重瓶頸:優質互聯網數據接近枯竭,合成數據成本高達1億美元/1TB,十萬卡集羣故障頻發,更大規模 MoE 的超參數亦難摸索。OpenAI 的停滯被視爲整個賽道進入“後 Scaling 時代”的標誌性信號,各家開始轉向推理模型、自博弈 RL 與多模態後訓練尋求增量突破。