中国に拠点を置くAI企業のZ.aiがローカルで動作する軽量AIモデル「GLM-4.7-Flash」を2026年1月19日に公開しました。GLM-4.7-Flashは多くのベンチマークテストでOpenAIの「gpt-oss-20b」を上回る性能を示しています。





GLM-4.7-Flashは複数の専門モデルを組み合わせるMoEアーキテクチャを採用したAIモデルで、総パラメーター数は300億、アクティブパラメーター数は30億です。





「GLM-4.7-Flash(総パラメーター数:300億、アクティブパラメーター数30億)」「Qwen3-30B-A3B-Thinking-2507(総パラメーター数:300億、アクティブパラメーター数30億)」「gpt-oss-20b(総パラメーター数:210億、アクティブパラメーター数36億)」の各種ベンチマーク結果が以下。ほとんどのテストでGLM-4.7-Flashが最も高いスコアを記録しています。



なお、上記のグラフのうちウェブ検索能力を測定するBrowseCompのグラフに誤りがあったとのこと。正しいグラフは以下で、GLM-4.7-FlashがQwen3-30B-A3B-Thinking-2507やgpt-oss-20bに大差をつけています。



GLM-4.7-Flashはオープンモデルとして開発されており、以下のリンク先でモデルデータをダウンロードできます。ライセンスはMIT Licenseです。

zai-org/GLM-4.7-Flash · Hugging Face

https://huggingface.co/zai-org/GLM-4.7-Flash



Z.aiが公開しているBF16版GLM-4.7-Flashを動作させるには45GB以上のVRAMが必要です。Z.aiは「GeForce RTX 4090でも実行できますか?」という質問に対して量子化版の登場を待つように案内しています。