Google在東京舉辦的Gemma開發者日上發佈重磅消息:全新日語版Gemma模型正式亮相。這款小巧精悍的AI模型以僅20億參數的規模,卻能同時駕馭日語和英語,展現出與GPT-3.5相媲美的性能。

這一技術突破尤爲令人矚目。在AI領域,小型模型在學習新語言時常常面臨"災難性遺忘"的挑戰——即在獲取新知識的過程中丟失先前掌握的能力。而日語版Gemma卻成功克服了這一難題,實現了雙語能力的完美平衡。

image.png

爲推動全球開發者社區的參與,Google不僅通過Kaggle和Hugging Face平臺開放了模型權重,還提供了完整的訓練資料和示例代碼。得益於其精簡的設計,這款模型甚至可以在移動設備上本地運行,爲邊緣計算應用開闢了新的可能。

Google還啓動了一項金額高達15萬美元的"Gemma全球交流解鎖"競賽,鼓勵開發者將Gemma適配到更多語言。目前,阿拉伯語、越南語和祖魯語的適配項目已經啓動。與此同時,印度的"Navarasa"項目正致力於支持12種印度語言,另有團隊正在探索韓語方言的優化。

作爲Google在7月底開源的Gemma2系列的最新成員,這款模型秉承了"以小博大"的設計理念。與Meta等公司推出的同類產品一樣,它注重效率與本地化處理能力。值得一提的是,這款20億參數的模型在某些任務上的表現甚至超越了擁有700億參數的LLaMA-2。

開發者和研究人員可以通過Hugging Face、Google AI Studio和Google Colab等多個平臺免費訪問Gemma-2-2B及其他Gemma系列模型,同時這些模型也已登陸Vertex AI模型市場。這一系列舉措,將爲全球AI開發者帶來更多創新可能。