阿里巴巴千問大模型團隊於2026年4月16日正式開源稀疏混合專家(MoE)模型 Qwen3.6-35B-A3B,標誌着輕量級模型在智能體編程領域實現關鍵突破。

QQ20260417-134943.jpg

該模型總參數量爲350億,得益於MoE架構的稀疏特性,其運行時的激活參數僅爲30億。在性能表現上,Qwen3.6-35B-A3B 以極低的計算成本,在多項核心編程基準測試中超越了擁有270億參數的稠密模型 Qwen3.5-27B,並顯著領先於前代 Qwen3.5-35B-A3B,展現出可與 Gemma4-31B 等大體量模型比肩的邏輯推理與智能體協同能力。

QQ20260417-134951.jpg

作爲一款全模態開源模型,Qwen3.6-35B-A3B 在空間智能與視覺感知方面同樣表現優異,RefCOCO 評分高達92.0,部分多模態指標已比肩 Claude Sonnet4.5。目前,該模型已集成至 Qwen Studio,並通過阿里雲百鍊平臺以 qwen3.6-flash 之名對外提供 API 服務,支持 preserve_thinking 思維鏈保留功能,能無縫適配 OpenClaw、Claude Code 及 Qwen Code 等主流 AI 編程助手。

隨着端側 AI 與自動化智能體需求的激增,Qwen3.6-35B-A3B 的開源不僅爲開發者提供了高性能的低功耗選項,更預示着“小參數、高智能”的 MoE 模型正成爲重塑編程範式與多模態交互的新基石。