最近、メイティアンは最新のAI大規模モデルであるLongCat-Flash-Chatを正式にリリースし、オープンソース化しました。このモデルは、560Bの総パラメータ数と18.6Bから31.3Bまでのアクティブパラメータ範囲を持ち、計算効率と性能の間での優れたバランスを示しています。LongCat-Flashは、革新的なミックス・オブ・エキスパート(MoE)アーキテクチャを採用しており、「ゼロ計算エキスパート」メカニズムにより、各トークンの処理時に必要なパラメータのみをアクティブ化し、計算リソースを効率的に活用することを可能にしています。

モデルアーキテクチャにおいて、LongCat-Flashはクロスレイヤーチャンネル設計を導入し、トレーニングおよび推論の並列性を大幅に向上させました。これにより、わずか30日間のトレーニング期間で、H800ハードウェア上でユーザー1人あたり秒速100トークンの推論速度を達成しました。また、トレーニング中にPIDコントローラーを使用してエキスパートのバイアスをリアルタイムで調整し、アクティブパラメータの平均レベルを27Bに保つことで、計算リソースの消費を効果的に制御しました。

image.png

さらに、LongCat-Flashはエージェント機能の向上にも多くの最適化を施しました。独自のAgentic評価セットとマルチエージェントデータ生成戦略を構築することで、さまざまなエージェントタスクにおいて優れたパフォーマンスを発揮し、特に複雑なシナリオにおいて、VitaBenchベンチマークテストで第1位を記録しました。より大きなパラメータ規模を持つモデルと比較しても、LongCat-Flashは優れたエージェントツールの使用能力を示しています。

image.png

汎用知識においても、LongCat-Flashは決して劣りません。ArenaHard-V2テストでは86.50点を獲得し、すべての評価モデルの中で第2位にランクインしました。また、MMLUおよびCEvalベンチマークテストではそれぞれ89.71点と90.44点を取得し、言語理解および中国語能力評価における競争力を示しています。

LongCat-Flash-Chatは、高速な推論速度と優れたエージェント表現により、技術面で業界をリードし、そのオープンソース化により開発者に多くの研究および応用の機会を提供しています。

プロジェクトのURL: https://github.com/meituan-longcat/LongCat-Flash-Chat

体験サイト: https://longcat.ai/