オープンソース大規模モデルの分野において、Mistral AIは再び業界に「効率第一」を示しました。本日、同社はApache2.0ライセンスのもとで、Smallシリーズの最新作であるMistral Small4を正式にオープンソース化することを発表し、同時に英伟达が新設したNemotron連盟に創設メンバーとして参加することを発表しました。
これは単なる通常のアップグレードではありません。Mistral Small4は公式に「三位一体」の多機能モデルとして定義されています。このモデルは、Mistralファミリーが誇るこれまでの三大エース機能を完璧に統合しています:
Magistral: 非常に優れた論理的推論能力。
Pixtral: 強力なネイティブマルチモーダル処理能力(画像入力をサポート)。
Devstral: 専門的なスマートエージェントコード生成能力。
これにより、開発者は「高速コマンドモデル」「高性能推論エンジン」や「マルチモーダルアシスタント」のいずれかを選ばずに済み、一つのモデルですべてのシナリオに対応できます。
技術仕様では、Mistral Small4は精密な128エキスパート混合(MoE)構造を採用しています。総パラメータ数は1190億ですが、最適化により、1トークンあたり4つのエキスパートがアクティブ化され(約60億個のアクティブパラメータ)、性能を維持しつつ計算コストを大幅に削減しています。また、256kの超長文脈ウィンドウにより、長文文書の分析や複雑な会話処理においても余裕があります。
注目すべきは、このモデルに導入された「設定可能な推論強度」機能です。ユーザーは低遅延の迅速な応答と深く考えた推論出力の間で自由に切り替えることができます。実測データによると:
遅延最適化モードでは、エンドツーエンドの完了時間が40%減少しました。
スループット最適化モードでは、1秒あたりの要求数(RPS)が前世代製品と比べて3倍向上しました。
コード補完から視覚分析に至るまで、Mistral Small4