近日,Liquid AI 正式推出了其 Liquid 基礎模型系列的新成員——LFM2.5-1.2B-Thinking。這款擁有12億參數的推理模型在端側設備部署上取得了顯著突破。令人印象深刻的是,該模型在現代手機上的運行佔用僅約900MB,這意味着兩年前還需要數據中心支撐的推理能力,現在已能完全離線運行在個人移動設備上。

image.png

與側重於日常對話的通用模型不同,LFM2.5-1.2B-Thinking專爲複雜的邏輯推理、數學運算及工具調用而設計。它在生成最終答案前會先產生內部的“思考痕跡”(thinking traces),這類似於人類的解題過程,能夠有效規劃步驟並驗證中間結果,極大地提升了處理多步驟指令的準確性。

在實際性能表現上,該模型展現了極高的效率。它在 AMD CPU 上的解碼速度可達每秒239個字符,而在移動 NPU 上的運行速度也達到了每秒82個字符。通過引入多階段強化學習(RLVR)等先進訓練技術,研發團隊成功將推理模型中常見的“循環死機”率從15.74% 降低至0.36%,確保了端側用戶體驗的流暢與穩定。