Liquid AI 是一家成立於2023年的初創公司,由麻省理工學院的計算機科學家創辦。2025年7月,該公司發佈了 Liquid Foundation Models 系列的第二代產品(LFM2),旨在利用 全新“liquid” 架構提供市場上最快的設備端基礎模型。其訓練和推理效率使得小模型成爲雲端大型語言模型(如 OpenAI 的 GPT 系列和谷歌的 Gemini)的有力競爭者。

LFM2最初推出了350M、700M 和1.2B 參數的密集檢查點,採用了一種偏向於門控短卷積的混合架構,其基準測試結果顯示 LFM2在質量和 CPU 吞吐量上均優於 Qwen3、Llama3.2和 Gemma3等同類競爭對手。對於企業來說,這一系列模型實現了在手機、筆記本電腦和車輛等設備上實時且隱私保護的 AI 應用,不再需要在能力和延遲之間進行犧牲。

在 LFM2發佈後,Liquid AI 進一步拓展了產品線,增加了任務和領域特定的變體、小型視頻攝取和分析模型,以及一個名爲 LEAP 的邊緣部署棧。現在,該公司在 arXiv 上發佈了一份詳細的51頁 LFM2技術報告,公開了模型背後的架構搜索過程、訓練數據混合、蒸餾目標、課程策略和後訓練流程。這一藍圖的發佈將爲其他組織提供參考,使其能夠從零開始訓練適合自身硬件和部署約束的小型高效模型。

LFM2的設計始終圍繞着現實中的企業需求,如延遲預算、內存上限和熱閾值,確保在各種設備上都能穩定運行。報告還強調了其優化的訓練管道,旨在實現更可靠的指令執行和工具使用行爲,使得 LFM2模型在實際應用中更具實用性。

劃重點:

🔍 小模型能在設備端高效運行,提供實時隱私保護的 AI 服務。  

💡 Liquid AI 發佈的藍圖使其他企業能夠參考,構建自己的小型高效模型。  

🚀 LFM2模型通過優化設計,增強了在各種硬件上的可預測性和操作便捷性。