Liquid AI は2023年に設立されたスタートアップ企業で、マサチューセッツ工科大学(MIT)のコンピュータサイエンスの研究者によって創業されました。2025年7月に、同社は「Liquid Foundation Models」シリーズの第2世代製品(LFM2)をリリースしました。この製品は、新たな「liquid」というアーキテクチャを活用し、市場で最も高速なエッジデバイス向けベースモデルを提供することを目的としています。訓練と推論の効率性により、小規模モデルがクラウド上の大型言語モデル(例えばOpenAIのGPTシリーズやGoogleのGeminiなど)の有力な競合となることが可能です。

LFM2は、350M、700M、および1.2Bパラメータを持つ密なチェックポイントを最初にリリースしました。これは、ゲート付き短いカーネルに偏ったハイブリッドアーキテクチャを採用しており、ベンチマークテストの結果では、Qwen3、Llama3.2、Gemma3などの類似製品よりも品質とCPUスループットの両方で優れています。企業にとって、このシリーズのモデルは、スマートフォン、ノートPC、車両などのデバイス上でリアルタイムかつプライバシー保護が可能なAIアプリケーションを実現し、性能と遅延のトレードオフを必要としないようにします。

LFM2のリリース後、Liquid AIは製品ラインをさらに拡張し、タスクや分野に特化したバリエーション、小さなビデオ取得および分析モデル、そしてLEAPというエッジデプロイスタックを追加しました。現在、同社はarXivで詳細な51ページのLFM2技術報告書を公開しており、モデルの背後にあるアーキテクチャ探索プロセス、トレーニングデータのミックス、蒸留目標、カリキュラム戦略、および後処理プロセスを明らかにしています。このブループリントの公開により、他の組織が自社のハードウェアとデプロイ制約に合わせた小規模で効率的なモデルをゼロからトレーニングできるようになります。

LFM2の設計は常に現実的な企業のニーズ、例えば遅延予算、メモリ上限、熱閾値に焦点を当てており、あらゆるデバイスで安定して動作することを保証しています。報告書では、より信頼性のある指示実行とツール使用行動を実現するための最適化されたトレーニングパイプラインも強調されています。これにより、LFM2モデルは実際の応用においてより実用的になります。

重要なポイント:

🔍 小規模モデルはエッジデバイスで効率的に動作し、リアルタイムでプライバシーを保護するAIサービスを提供できます。

💡 Liquid AIが公開したブループリントにより、他の企業は自身の小規模で効率的なモデルを構築する参考にすることができます。

🚀 LFM2モデルは最適化された設計により、さまざまなハードウェアでの予測可能性と操作のしやすさを強化しています。