最近、Nvidiaは新型の小型言語モデルであるNemotron-Nano-9B-v2を正式にリリースし、小型モデルの人気が再燃しています。

image.png

このモデルは90億のパラメータを持ち、他の数百万のパラメータを持つ小型モデルと比較して規模がより大きいものの、元の120億のパラメータに比べて大幅に縮小され、Nvidia A10 GPU上で効率的に動作することを目的としています。NvidiaのAIモデル後学習担当者であるOleksii Kuchiaev氏はソーシャルメディアで、パラメータを減らす目的はデプロイのニーズに適応させるためであり、このモデルは混合アーキテクチャを採用しており、大きなバッチ処理において類似サイズの変換モデルよりも6倍速く動作するとしています。

Nemotron-Nano-9B-v2は英語、ドイツ語、スペイン語、フランス語、イタリア語、日本語などの多言語をサポートしており、指示の追従やコード生成などのタスクに適しています。このモデルには、ユーザーが単純なコントロールトークンを使ってAIの「推論」プロセスを切り替えるというイノベーティブな機能も含まれています。つまり、答えを出す前に自己検査を行うことができます。システムではデフォルトで推論の履歴が生成されますが、/think や /no_think などのコマンドによってこのプロセスを制御できます。さらに、モデルには「推論予算」管理メカニズムが導入されており、開発者が推論中に使用されるトークンの数を設定できるようにし、正確性と応答速度のバランスを取ります。

image.png

テスト結果によると、Nemotron-Nano-9B-v2は複数のベンチマークテストで優れた性能を示しました。「推論を有効にする」モードでは、AIME25、MATH500、GPQA、LiveCodeBenchなどのテストで満足できる成績を収めました。また、指示の追従および長文の文脈ベースのテストでも同様に優れた性能を発揮し、他のオープンな小型モデルと比較して高い正確性を示しています。

Nvidiaはこのモデルに対してオープンライセンス協定を設けており、開発者は商業的に自由に使用および配布でき、生成された出力に対して所有権を主張しません。これにより、企業は追加の交渉なしにこのモデルをすぐに本番環境に適用でき、使用のハードルや費用の心配をする必要がありません。

NvidiaのNemotron-Nano-9B-v2モデルは、小規模な状況で推論能力と効率的なデプロイを実現したい開発者に新しいツールを提供します。運用予算の制御と推論の切り替え機能により、システム構築者に柔軟性を提供し、正確性と応答速度を向上させ、さらなる小型言語モデルの発展を促進することを目的としています。

ポイント:

🌟 Nemotron-Nano-9B-v2はNvidiaが新たにリリースした小型言語モデルで、90億のパラメータを持ち、効率的なデプロイを専門に設計されています。

🧠 モデルは多言語をサポートし、推論の切り替え機能があり、ユーザーが必要に応じて応答方法を調整できます。

📈 オープンライセンス協定により、開発者はモデルを自由に使用・配布でき、追加の費用やライセンス協定の心配がありません。