アリババ・チュンワン大規模モデルチームは、2026年4月16日にスパース混合エキスパート(MoE)モデル「Qwen3.6-35B-A3B」を正式にオープンソース化しました。これは、軽量モデルがスマートエージェントプログラミング分野で重要な突破を遂げたことを示しています。

このモデルの総パラメータ数は350億です。MoEアーキテクチャのスパース性により、実行時のアクティブパラメータは30億にとどまります。性能面では、Qwen3.6-35B-A3Bは非常に低い計算コストで、270億パラメータを持つ密なモデル「Qwen3.5-27B」と比べて多くの主要プログラミングベンチマークテストで上回り、前世代の「Qwen3.5-35B-A3B」を大幅に超えています。また、Gemma4-31Bなどの大容量モデルと同等の論理的推論およびエージェント協働能力を示しています。

全モーダルオープンソースモデルであるQwen3.6-35B-A3Bは、空間知能と視覚認識においても優れた性能を発揮しており、RefCOCOスコアは92.0に達しています。一部のマルチモーダル指標はClaude Sonnet4.5と同等に近づいています。現在、このモデルはQwen Studioに統合され、アリババクラウドの百煉プラットフォームを通じて「qwen3.6-flash」としてAPIサービスを提供しており、preserve_thinkingという思考チェーン保持機能をサポートし、OpenClaw、Claude Code、Qwen Codeなどの主流のAIプログラミングアシスタントとスムーズに互換性があります。
エッジ側AIおよび自動化されたスマートエージェントへの需要が急増する中、Qwen3.6-35B-A3Bのオープンソース化は開発者に高性能かつ低消費電力のオプションを提供し、さらに「小さなパラメータ、高い知能」のMoEモデルがプログラミングのパターンとマルチモーダルインタラクションを再構築する新たな基盤となることを示しています。
