微博正式發佈自研開源大模型Vibe Thinker,憑藉 15 億參數在國際頂級數學競賽基準測試中擊敗 6710 億參數的DeepSeek R1,準確率領先且單次“後訓練”成本僅 7800 美元,比DeepSeek-R1 和MiniMax-M1 等模型低數十倍。


Vibe Thinker採用輕量化MoE架構與多輪知識蒸餾,官方稱在5GB以下數學語料上即可完成高效微調,支持Hugging Face一鍵下載及商用許可。微博技術團隊透露,模型在AIME 2025、HMMT等競賽題庫中平均得分較R1 提升3.4%,推理延遲降低42%,適用於教育、金融等實時場景。


開源版本提供PyTorch與GGUF格式,最低可在單張RTX4090 運行。微博同步開放訓練腳本與數據配比方案,計劃 12 月推出Vibe Thinker-Math專用數學增強版,並聯合高校舉辦“輕量級數學挑戰賽”,推動低成本高精度AI普及。