Qwen3-30B-A3B模型迎來了重大更新,推出了新版本Qwen3-30B-A3B-Thinking-2507。這一新版本在推理能力、通用能力及上下文長度上實現了顯著提升,標誌着該模型不僅更加輕巧,還具備了更強的思考能力。

與4月29日開源的Qwen3-30-A3B模型相比,新模型在多個關鍵領域取得了進步。在數學能力方面,Qwen3-30B-A3B-Thinking-2507在AIME25評測中獲得了85.0的高分,這一成績超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)。在代碼能力測試LiveCodeBench v6中,新模型也取得了66.0的高分,顯示出其在編程領域的強大能力。此外,新模型在知識水平(GPQA、MMLU-Pro)方面也較上一版本有了顯著提升。

微信截圖_20250731082733.png

除了數學和代碼能力的增強,Qwen3-30B-A3B-Thinking-2507在通用能力上也實現了全面升級。在寫作(WritingBench)、Agent能力(BFCL-v3)、多輪對話和多語言指令遵循(MultiIF)等通用能力評測中,新模型均超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking),顯示出其在理解和生成自然語言方面的卓越能力。

新模型的上下文理解能力也得到了顯著增強,原生支持256K tokens,並可擴展至1M tokens。這一改進使得Qwen3-30B-A3B-Thinking-2507能夠處理更長的文本輸入,從而更好地理解和生成複雜的文本內容。此外,新模型的思考長度(thinking length)也有所增加,開發團隊推薦在高度複雜的推理任務中設置更長的思考預算,以充分發揮其潛力。

爲了方便開發者和研究人員使用和測試這一新版本,Qwen3-30B-A3B-Thinking-2507已經在魔搭社區和HuggingFace上開源。其輕量體積使得該模型可以輕鬆實現消費級硬件的本地部署。同時,開發團隊也在Qwen Chat上同步上線了新模型,歡迎開發者們前往體驗其強大的推理和生成能力。