Googleは2024年6月に大規模言語モデル(LLM)の「Gemma 2」を発表しました。当初発表されたGemma 2のパラメーターサイズは90億(9B)と270億(27B)の2つだったのですが、これらよりもコンパクトなパラメーターサイズでありながら優れたパフォーマンスを発揮できる「Gemma 2 2B」や、Gemma 2をベースとしたAIモデルの入出力をフィルタリングしてユーザーの安全を守ることができるという「ShieldGemma」、モデルの内部動作に関する比類な