Liquid AI 是一家成立于2023年的初创公司,由麻省理工学院的计算机科学家创办。2025年7月,该公司发布了 Liquid Foundation Models 系列的第二代产品(LFM2),旨在利用 全新“liquid” 架构提供市场上最快的设备端基础模型。其训练和推理效率使得小模型成为云端大型语言模型(如 OpenAI 的 GPT 系列和谷歌的 Gemini)的有力竞争者。

LFM2最初推出了350M、700M 和1.2B 参数的密集检查点,采用了一种偏向于门控短卷积的混合架构,其基准测试结果显示 LFM2在质量和 CPU 吞吐量上均优于 Qwen3、Llama3.2和 Gemma3等同类竞争对手。对于企业来说,这一系列模型实现了在手机、笔记本电脑和车辆等设备上实时且隐私保护的 AI 应用,不再需要在能力和延迟之间进行牺牲。

在 LFM2发布后,Liquid AI 进一步拓展了产品线,增加了任务和领域特定的变体、小型视频摄取和分析模型,以及一个名为 LEAP 的边缘部署栈。现在,该公司在 arXiv 上发布了一份详细的51页 LFM2技术报告,公开了模型背后的架构搜索过程、训练数据混合、蒸馏目标、课程策略和后训练流程。这一蓝图的发布将为其他组织提供参考,使其能够从零开始训练适合自身硬件和部署约束的小型高效模型。

LFM2的设计始终围绕着现实中的企业需求,如延迟预算、内存上限和热阈值,确保在各种设备上都能稳定运行。报告还强调了其优化的训练管道,旨在实现更可靠的指令执行和工具使用行为,使得 LFM2模型在实际应用中更具实用性。

划重点:

🔍 小模型能在设备端高效运行,提供实时隐私保护的 AI 服务。  

💡 Liquid AI 发布的蓝图使其他企业能够参考,构建自己的小型高效模型。  

🚀 LFM2模型通过优化设计,增强了在各种硬件上的可预测性和操作便捷性。