最近、Liquid AIは、Liquidベースモデルシリーズの新メンバーとして、LFM2.5-1.2B-Thinkingを正式にリリースしました。この120億パラメータを持つ推論モデルは、エッジデバイスへの展開において大きな進歩を遂げました。注目すべき点は、このモデルが現代のスマートフォンで約900MBのメモリを使用するだけで動作することです。これは、2年前にはデータセンターが必要だった推論能力が、今では完全にオフラインで個人用モバイルデバイスで動作可能になったことを意味しています。

image.png

日常会話を重視した汎用モデルとは異なり、LFM2.5-1.2B-Thinkingは複雑な論理的推論、数学演算およびツール呼び出しを専門としています。最終的な答えを生成する前に、内部で「思考の痕跡(thinking traces)」を生成します。これは人間の問題解決プロセスに似ており、ステップを効果的に計画し、中間結果を検証することで、マルチステップ命令の処理精度を大幅に向上させます。

実際の性能において、このモデルは非常に高い効率を示しています。AMD CPU上でデコード速度は1秒あたり239文字に達し、モバイルNPU上での実行速度も1秒あたり82文字となっています。多段階強化学習(RLVR)などの先進的なトレーニング技術を導入することで、研究チームは推論モデルで一般的な「ループハング」の割合を15.74%から0.36%にまで低下させ、エッジ側のユーザー体験のスムーズさと安定性を確保しました。