北京時間4月3日凌晨,谷歌正式發佈開源大模型 Gemma4,憑藉“單位參數智能”的突破性提升,定義了開源模型輔助智能體工作流的新標準。

該系列包含高效版 E2B(2.3B)、E4B(4.5B)以及高性能版26B MoE 與31B 稠密模型。作爲基於 Gemini3技術棧構建的最新成果,Gemma4全系支持多模態輸入(圖片與視頻),其中 E2B 與 E4B 更是原生支持語音輸入,實現了端側實時的語音理解。

QQ20260403-085758.jpg

技術架構上,大參數模型通過優化實現了極高的硬件效率,31B 稠密版在 Arena AI 文本榜單中位列開源模型全球第三,26B MoE 版位居第六,其邏輯推理與函數調用能力足以驅動複雜的自主智能體。

在本地部署方面,Gemma4顯著降低了前沿 AI 能力的准入門檻。31B 模型的非量化權重可運行於單塊80GB H100顯卡,量化版則兼容消費級顯卡。針對移動端與 IoT 設備,E2B 和 E4B 模型通過創新的 PLE 嵌入技術與128K 長上下文支持,在 Raspberry Pi 及智能手機上實現了低延遲的邏輯處理。

此次發佈不僅展示了谷歌在開源生態的深厚積澱,更通過 Apache2.0協議的開放姿態,爲全球開發者提供了構建本地化、高隱私性 AI 應用的底座。