4月22日,阿里雲通義千問團隊宣佈其開源家族迎來重磅更新,正式發佈270億參數的稠密多模態模型——Qwen3.6-27B。作爲開發者羣體呼聲最高的模型規格,該版本的出現不僅完善了Qwen系列的產品矩陣,更在保持稠密架構優勢的基礎上,針對智能體編程與多模態推理進行了深度進化。

性能飛躍:編程能力超越15倍規模的MoE模型
在本次發佈中,最令業界關注的是其“以小博大”的驚人表現。儘管只有270億參數,Qwen3.6-27B在多項編程基準測試中,全面超越了前代總參數量高達3970億的Qwen3.5-397B-A17B。數據顯示,在衡量代碼修復能力的SWE-bench Verified測試中,該模型取得了77.2的高分;而在SkillsBench等推理任務上,其進步幅度更是顯著。這種性能表現意味着,開發者無需複雜的MoE(混合專家模型)路由即可獲得旗艦級的編程輔助體驗,大幅降低了部署門檻。

全能多模態:支持圖像視頻混合輸入
除了邏輯推理的強項,Qwen3.6-27B在視覺語言領域同樣表現穩健。它原生支持多模態處理,能夠流暢解析圖像、視頻與文本的混合輸入,涵蓋了視覺推理、文檔深度理解以及交互式視覺問答等應用場景。官方表示,其多模態處理能力已與更高參數級別的Qwen3.6-35B-A3B保持一致,確保了多模態任務下的高精度產出。

生態對接:深度適配開發者主流工作流
爲了讓技術迅速轉化爲生產力,該模型的開源權重已同步上線Hugging Face和ModelScope(魔搭)社區,支持本地化部署。此外,阿里雲百鍊平臺也將緊隨其後提供API調用服務,並特別保留了“preserve_thinking”功能,以便在智能體任務中完整回溯思維鏈。目前,Qwen3.6-27B已實現對Claude Code、Qwen Code等主流編程助手的無縫集成,旨在爲全球開發者提供更加精準、具備上下文感知能力的編碼輔助環境。
