Googleが開発したオープンかつ商用利用可能な大規模言語モデル「Gemma 2」のパラメーターをコンパクトにした「Gemma 2 2B」の日本語版が、2024年10月3日にリリースされました。

日本語版 Gemma 2 2B を公開

https://blog.google/intl/ja-jp/company-news/technology/gemma-2-2b/



Googleは2024年2月、マルチモーダルAIのGeminiよりも軽量であり、オープンソースで商用利用も可能な大規模言語モデル「Gemma」をリリースしました。そして5月にはGemmaの強化版である「Gemma 2」も発表しました。

Googleがオープンソースのビジュアル言語モデル「PaliGemma」を公開&Llama 3と同等性能の大規模言語モデル「Gemma 2」を発表 - GIGAZINE



Gemma 2のパラメーター数は270億(27B)と90億(90B)でしたが、8月にはさらにコンパクトな軽量版「Gemma 2 2B」が登場しました。Gemma 2 2Bはパラメーターサイズがわずか20億(2B)で、既存のモデルの中で最もコンパクトで軽量ですが、よりパラメーターサイズの大きなモデルから学習することで、コンパクトながら高いパフォーマンスを発揮するとGoogleはアピールしています。

Googleが大規模言語モデル「Gemma 2」をベースとしたパラメーターサイズがコンパクトな「Gemma 2 2B」、AIモデルの入出力をフィルタリングする「ShieldGemma」、モデル解釈ツール「Gemma Scope」を発表 - GIGAZINE



そして10月3日、東京で開催されたGemma Developer Dayにおいて、Googleは日本語版「Gemma 2 2B」を公開しました。日本語版のGemma 2 2BはGemma 2と比較して優れた文章力や指示内容を的確に理解し反映する能力を持っており、全体的な品質が向上しているとのこと。

Googleは、「日本語版 Gemma 2 2Bは、自社評価において、 GPT-3.5を上回るパフォーマンスを発揮し、モバイル端末での高速でスムーズな処理能力や日英両言語における高い品質を維持しています。この結果は、モデルのサイズを考慮すると、Gemmaモデルが英語以外の言語でも高い性能を発揮できる可能性を示しています」とコメントしました。

なお、日本語版のGemma 2 2Bのモデルは機械学習プラットフォームのHugging Faceで公開されているほか、開発者向けのトレーニングガイドも公開されています。

Gemma 2 JPN Release - a google Collection

https://huggingface.co/collections/google/gemma-2-jpn-release-66f5d3337fdf061dff76a4f1