智譜は今日、新たにベースモデル「GLM-5」を公開し、オープンソース化しました。このモデルは、大規模モデルの能力における大きなパラダイムシフトを示しています。単なるコード作成やフロントエンド開発から、複雑なシステム工学と長期的なタスクを独立して完了できる「Agentic Engineering(エージェンティックエンジニアリング)」への進化を果たしました。最新の世界的権威あるArtificial Analysisランキングにおいて、GLM-5は世界第4位となり、さらに「オープンソースモデル第1位」という栄誉を獲得しました。

QQ20260212-085506.png

コア性能:業界トップクラスと同等

GLM-5は、多くの基準テストで優れたエンジニアリング能力を示しており、使用感はClaude Opus4.5に近づいています:

  • プログラミングの整合性: SWE-bench-Verified(77.8)およびTerminal Bench2.0(56.2)でオープンソースでの最良記録を達成し、Gemini3Proを上回りました。

  • 長距離エージェント能力: BrowseCompMCP-Atlas、および複雑なツール計画テストτ²-Benchにおいて、オープンソースモデルとして第1位を維持しています。

  • 経営意思決定: 自動販売機の運営をシミュレートするVending Bench2テストにおいて、長期的な計画とリソース管理能力が優れています。

QQ20260212-085516.png

技術的突破:より大規模で効率的

GLM-5の進化は、基本的な構造の全面的なアップグレードによるものです:

  1. パラメータ拡張: モデルは355Bから744B(アクティブパラメータ40B)に拡大され、トレーニングデータ量は28.5Tまで増加しました。

  2. 非同期強化学習: 新しい“Slime”フレームワークと非同期エージェント強化学習アルゴリズムを採用し、モデルが長期間の相互作用から継続的に進化できるようになりました。

  3. 疎な注目機構: DeepSeek Sparse Attentionメカニズムを統合し、長文処理の品質を確保しながら、トークン効率と導入コストを大幅に改善しました。

計算力とエコシステム:国内チップとの深くの適合

世界中の計算力需要に対応するため、GLM-5は華為昇騰、摩爾線程、寒武紀、崑崙芯、沐曦、燧原、海光などの国内チッププラットフォームとの深い推論適合を実現しました。下層のオペレーター最適化を通じて、国内チップクラスター上で高スループットかつ低遅延の安定した動作を確保しています。

QQ20260212-085524.png

応用場面:開発プロセス全体を再構築

GLM-5はモデルだけでなく、「システムアーキテクト」でもあります。智譜は同時に、GLM-5を核にしたZ Codeプログラミングツールをリリースし、マルチエージェントによりタスク分解、コード作成、デバッグプレビューまでの完全なサイクルを同時進行で行うことを可能にしています。また、GLM-5は素材を直接.docx、.pdf、.xlsxなどのオフィスドキュメントに変換でき、Excel環境ではネイティブAIプラグインのサポートも提供します。

現在、GLM-5のモデル重みはHugging FaceおよびModelScopeを通じて同期してオープンソース化されており、MIT Licenseに従っています。