當全球AI競賽仍圍繞自迴歸大模型(如GPT-5、Gemini)激烈纏鬥時,一家新銳初創公司正以顛覆性架構悄然突圍。由斯坦福大學教授Stefano Ermon領銜的AI公司Inception近日宣佈完成5000萬美元種子輪融資,由Menlo Ventures領投,微軟M12、英偉達NVentures、Snowflake Ventures、Databricks Investment及Mayfield跟投,吳恩達(Andrew Ng)與Andrej Karpathy亦以天使投資人身份加入,陣容堪稱豪華。
Inception的核心押注,是將原本用於圖像生成的擴散模型(Diffusion Models)全面引入文本與代碼領域,挑戰當前主流的自迴歸範式。Ermon指出,GPT、Gemini等模型採用“逐詞預測”方式,必須串行處理,限制了速度與效率;而擴散模型通過並行迭代優化整體輸出,在處理大規模代碼庫或長文本時展現出顯著優勢。
這一理念已落地爲產品:公司同步發佈其最新模型Mercury,專爲軟件開發場景設計,目前已集成至ProxyAI、Buildglare、Kilo Code等多款開發者工具。實測顯示,Mercury在代碼補全、重構與跨文件理解任務中,推理速度突破1000token/秒,遠超現有自迴歸模型。“我們的架構天生爲並行而生,”Ermon強調,“它更快、更高效,且對算力成本極度友好。”
爲何擴散模型適合代碼?
代碼不同於自然語言——它結構嚴謹、依賴全局上下文,且常需跨文件關聯。自迴歸模型在處理此類任務時,易因“逐字生成”而忽略整體邏輯一致性。而擴散模型從“噪聲”出發,通過多輪全局調整逼近目標輸出,天然適合高結構化數據。此外,其並行計算特性可充分利用GPU/TPU集羣,顯著降低延遲與能耗,直擊當前AI基礎設施高成本痛點。
巨頭爲何押注?
在AI訓練與推理成本飆升的背景下,效率成爲新戰場。微軟、英偉達、Databricks等投資方均在構建AI開發棧,亟需高性能、低開銷的模型底座。Inception的路徑,或爲大模型商業化提供一條“省算力、高吞吐”的新出路。
AIbase認爲,Inception的崛起標誌着AI架構探索進入深水區——當參數競賽邊際效益遞減,底層範式創新將成爲破局關鍵。如果擴散式LLM能在代碼、科研、金融等高價值場景持續驗證其優勢,這場由斯坦福實驗室發起的技術革命,或將重塑生成式AI的未來版圖。
