阿里雲旗下通義千問(Qwen)團隊正式發佈Qwen3系列模型,共推出8款不同規格的模型,覆蓋從移動設備到大型服務器的全部應用場景。這是國內首個全面超越DeepSeek R1的開源模型,也是首個配備混合思維模式的國產模型。

模型陣容豐富,滿足各類部署需求

Qwen3系列包含6款Dense模型和2款MoE模型:

  • Dense模型:0.6B、1.7B、4B、8B、14B、32B
  • MoE模型:
    • Qwen3-235B-A22B (總參數235B,激活參數22B)
    • Qwen3-30B-A3B (總參數30B,激活參數3B)

所有模型均支持128K上下文窗口,並配備了可手動控制的"thinking"開關,實現混合思維模式。

QQ20250429-150719.png

性能與效率的突破

Qwen3系列在同尺寸開源模型中性能領先,尤其是旗艦模型Qwen3-235B-A22B:

  • 在代碼、數學、通用能力等基準測試中與DeepSeek-R1、o1、o3-mini、Grok-3和Gemini-2.5-Pro相比表現極具競爭力
  • 部署成本僅爲DeepSeek R1的35%

小型MoE模型Qwen3-30B-A3B同樣令人驚豔:

  • 激活參數僅爲QwQ-32B的10%,性能反而更優
  • 可在消費級顯卡上部署運行

最小的0.6B模型專爲移動設備優化,進一步擴展了Qwen3的應用範圍。

QQ20250429-150730.png

多平臺部署支持

Qwen3發佈後立即獲得了衆多平臺的"0day級支持":

在線體驗:

  • 通過官網直接對話:https://chat.qwen.ai/

本地部署:

  • Ollama:ollama run qwen3(後接參數可選擇不同尺寸)
  • LM Studio:https://lmstudio.ai/
  • vLLM:支持v0.8.4以上版本
  • SGLang:需升級至0.4.6.post1
  • llama.cpp:支持量化版和動態量化版

API接入:

  • OpenRouterAI:提供免費API

特殊部署:

  • CPU部署:KTransformer支持混合CPU+GPU部署
  • Mac設備:支持mlx-lm,覆蓋從iPhone到M3Ultra的全線產品

技術亮點

Qwen3的核心優勢包括:

  • 首個全面超越DeepSeek R1的國產開源模型
  • 國內首個混合推理模型,複雜問題深度思考,簡單問題快速響應
  • 大幅降低部署要求,旗艦模型僅需4張H20卡
  • 原生支持MCP協議,代碼能力顯著提升
  • 支持119種語言和方言,包含多種地方性語言
  • 訓練數據達36萬億token,較Qwen2.5翻倍,融合網絡內容、PDF文檔和合成代碼片段

Qwen3的發佈標誌着中國開源大模型進入新階段,在性能與部署效率方面實現了雙重突破。有興趣的開發者可通過官方技術博客(https://qwenlm.github.io/blog/qwen3/)瞭解更多技術細節。