最近在東京舉辦的 Gemma 開發者日上,谷歌正式推出了新的日語版本 Gemma AI 模型。這款模型的表現可以與 GPT-3.5媲美,但它的參數量只有僅僅20億,非常小巧,適合在移動設備上運行。
這次發佈的 Gemma 模型,在日語處理上表現出色,同時也保持了其在英語上的能力。對於小型模型來說,這一點特別重要,因爲在進行新語言的微調時,它們可能會面臨 “災難性遺忘” 的問題,即新學到的知識會覆蓋之前學到的信息。但是 Gemma 成功克服了這個難題,展現了強大的語言處理能力。
更值得一提的是,谷歌還通過 Kaggle 和 Hugging Face 等平臺,立即發佈了模型的權重、訓練材料和示例,幫助開發者更快入門。這意味着,開發者們可以輕鬆使用這個模型來進行本地計算,尤其是在邊緣計算應用中,將會帶來更多的可能性。
爲了鼓勵更多的國際開發者,谷歌還推出了一項名爲 “解鎖全球溝通與 Gemma” 的比賽,獎金高達15萬美元。這個計劃旨在幫助開發者將 Gemma 模型適配到本地語言。目前,已經有阿拉伯語、越南語和祖魯語的項目在進行中。在印度,開發者們正在進行 “Navarasa” 項目,計劃將模型優化爲支持12種印度語言,而另一個團隊則在研究通過微調支持韓語方言。
Gemma2系列模型的推出,旨在用更少的參數實現更高的性能。與 Meta 等其他公司的類似模型相比,Gemma2的表現同樣優秀,甚至在某些情況下,2億參數的 Gemma2還能夠超越一些擁有700億參數的模型,比如 LLaMA-2。開
發者和研究人員可以通過 Hugging Face、谷歌 AI 工作室和谷歌 Colab 的免費計劃獲取 Gemma-2-2B 模型及其他 Gemma 模型,此外,還可以在 Vertex AI 模型花園中找到它們。
官網入口:https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Hugging Face:https://huggingface.co/google
谷歌 Colab:https://ai.google.dev/gemma/docs/keras_inference?hl=de
劃重點:
🌟 谷歌推出新日語 Gemma AI 模型,性能媲美 GPT-3.5,參數僅2億,適合移動設備運行。
🌍 谷歌發起 “解鎖全球溝通與 Gemma” 比賽,獎金15萬美元,鼓勵開發本地語言版本。
📈 Gemma2系列模型以少量參數實現高性能,甚至能超越更大模型,提升開發者的應用潛力。