近日,谷歌對其 Gemini 系列大型語言模型(LLM)進行了重要更新,尤其是 Gemini2.5Flash 和 Flash Lite,強調了速度和效率的提升。這些改進是在大版本發佈之間持續進行的,充分展示了谷歌在 AI 領域不斷進步的決心。

根據第三方分析機構 Artificial Analysis 的評估,Gemini2.5Flash Lite 已經成爲其網站上 “最快的專有模型”,輸出速度達到每秒887個輸出 token,比上一版本提升了40%。儘管與 MBZUAI 和 G42AI 推出的新 K2Think 開源模型(每秒輸出2,000個 token)相比仍有差距,但 Gemini2.5Flash Lite 的速度依然令人矚目。

這兩款新模型在輸出質量和成本效率上都有顯著提升,尤其是在 token 使用和響應速度方面。Gemini2.5Flash 在多步驟和自主工作流程處理能力上表現出色,其在 SWE-Bench Verified 基準測試中的得分提高到了54%。而 Flash Lite 則在遵循指令和多模態能力上也有改進,輸出 token 減少了50%,這在高通量應用中降低了部署成本。
在獨立基準測試中,Gemini2.5Flash 和 Flash Lite 的表現得到了進一步確認,前者在多個測試中的得分都有明顯提升。爲了便於開發者使用,谷歌還推出了新別名,便於整合最新版本的模型。
除了 LLM 的更新,谷歌還對 Gemini Live 進行了增強,這是一款專爲語音應用設計的實時音頻模型。新版本提高了函數調用的可靠性和自然對話的處理能力,開發者能夠構建更響應迅速的語音助手,能夠在動態環境中更好地與用戶互動。用戶可以通過新的預覽版本直接使用更新後的 Gemini Live 模型。
谷歌的這次更新不僅提高了模型的性能和可用性,也爲開發者提供了更多靈活性。未來,谷歌計劃在 Gemini 系列中推出更多更新,以滿足開發者不斷變化的需求。
劃重點:
🌟 Gemini2.5Flash Lite 成爲最快的專有模型,輸出速度達每秒887個 token。
🚀 新模型在輸出質量和成本效率上顯著提升,尤其是 Flash Lite 減少了50% 的輸出 token。
🗣️ Gemini Live 的更新增強了語音助手的功能,提高了函數調用的準確性和自然對話的能力。
