11月27日,DeepSeek 團隊在 Hugging Face 扔出236B 參數巨獸——DeepSeek-Math-V2,採用 MoE 架構,活躍參數僅21B,上下文一口氣拉到128K token。官方同步放出 Apache2.0權重,商業限制爲零,當天就衝爆服務器帶寬。

數學戰績一覽(零樣本 CoT):

- MATH 基準75.7%,與 GPT-4o(76.6%)幾乎肩並肩;

- AIME20244/30題,多於 Gemini1.5Pro、Claude-3-Opus;

- Math Odyssey53.7%,同樣躋身第一梯隊 。

模型核心祕籍是“自驗證”雙引擎:Generator 先出草稿,Verifier 逐行檢查,把錯誤打回重寫,最多16輪迭代,用多數投票+元驗證器壓制幻覺。訓練語料達 1000億 token,囊括論文、競賽題與合成數據,並引入 GRPO 強化學習對齊人類偏好 。

得益於代碼-數學混合語料,DeepSeek-Math-V2在編程端同樣兇狠:HumanEval90.2%、MBPP76.2%、SWEBench 首次讓開源模型破10% 大關,直接對標 GPT-4-Turbo、Claude3Opus 。

目前模型已上線 Hugging Face,80GB 顯存即可多卡推理;社區復現正火速進行。想給 AI 裝一顆“數學金牌”大腦,現在只需一行 `transformers` 加載——國產開源,再次把閉源巨頭的護城河切成顯微鏡下的裂縫。