「自分のパソコンで動くローカルLLM」をさくっと調べる方法
ローカルLLMとは「自分のパソコン上で動作させられる大規模言語モデル」のこと。昨今、どんどん性能が上がっていて、実用性も増しています。
専用のソフトを入れ、ダウンロードしたローカルLLMを読み込めば使えるのですが…パソコンごとに動かせるモデルがちがうんですよね。
…自分のパソコンではどれが動くの?ってなるんじゃないでしょうか。
でも大丈夫、一発でわかるサイトがあります。その名も「Can I Run AI locally?」。
アクセスすると、そのパソコンで動くローカルLLMが表示されます。
モデル名の右のほうに「DECENT 64/100」などと表示されますが、これは「どれくらい動く見込みか」を表しています。文字の色が緑系なら「実用できる可能性」がある水準なので、ダウンロードして試してみてもいいでしょう。
・緑(RUNS GREAT)=ラクラク動く
・エメラルド(RUNS WELL)=よく動く
・黄緑(DECENT)=まぁまぁ動く
赤っぽい色になると実用レベルでは動作しないと思います。
初期設定だと動かないモデルも表示されるようになっていますが、あまり意味がないうえに見づらい。そのため、表示される量を減らすよう設定を変えるのがおすすめです。「All grades」を「Can run (S/A/B)」に変えると「動くモデルだけ」が表示されるようになってすっきりします。
Source: Can I Run AI locally?
「LM Studio」ではじめるローカルLLM。“ガチ無料AI”を徹底解説
MacBookで動くし、ぶっ壊れ性能。いま最強のローカルLLM「Qwen3.5」を解説しちゃう
