Googleは東京で開催されたGemma開発者向けイベントで、大きなニュースを発表しました。日本語版Gemmaモデルが正式に公開されたのです。このコンパクトでパワフルなAIモデルは、わずか20億パラメータながら、日本語と英語の両方を自在に操り、GPT-3.5に匹敵する性能を発揮します。

この技術的ブレークスルーは特に注目に値します。AI分野では、小型モデルが新しい言語を学習する際に「壊滅的な忘却」という課題に直面することがよくあります。これは、新しい知識を獲得する過程で、以前習得した能力を失ってしまう現象です。しかし、日本語版Gemmaは、この問題を克服し、両言語能力の完璧なバランスを実現しました。

image.png

世界中の開発者コミュニティの参加を促進するため、GoogleはKaggleとHugging Faceプラットフォームを通じてモデルの重みを公開するだけでなく、完全なトレーニングデータとサンプルコードも提供しています。そのシンプルな設計のおかげで、このモデルはモバイルデバイス上でローカルに実行することも可能になり、エッジコンピューティングアプリケーションに新たな可能性を開きます。

Googleはまた、「Gemmaグローバル交流アンロック」コンテストを15万ドルの賞金で開始し、開発者によるGemmaのより多くの言語への適合を奨励しています。現在、アラビア語、ベトナム語、ズールー語への適合プロジェクトが開始されています。同時に、インドの「Navarasa」プロジェクトでは12種類のインド言語のサポートに取り組んでおり、韓国語の方言の最適化に取り組んでいるチームもあります。

7月末にオープンソース化されたGemma2シリーズの最新メンバーであるこのモデルは、「少量で大きな成果」という設計理念を受け継いでいます。Metaなどの企業が発表した同種の製品と同様に、効率性とローカライズされた処理能力に重点を置いています。注目すべきは、この20億パラメータのモデルが、700億パラメータのLLaMA-2を上回るパフォーマンスを示すタスクもあることです。

開発者と研究者は、Hugging Face、Google AI Studio、Google Colabなど複数のプラットフォームからGemma-2-2Bおよびその他のGemmaシリーズモデルに無料でアクセスできます。また、これらのモデルはVertex AIモデルマーケットにも掲載されています。これらの取り組みは、世界中のAI開発者にさらなるイノベーションの可能性をもたらすでしょう。