アクセスするだけで今使ってるPCで動くローカルLLMが表示されるサイト「Can I Run AI locally?」 Image: かみやまたくみ

ローカルLLMとは「自分のパソコン上で動作させられる大規模言語モデル」のこと。昨今、どんどん性能が上がっていて、実用性も増しています。

専用のソフトを入れ、ダウンロードしたローカルLLMを読み込めば使えるのですが…パソコンごとに動かせるモデルがちがうんですよね。

…自分のパソコンではどれが動くの?ってなるんじゃないでしょうか。

でも大丈夫、一発でわかるサイトがあります。その名も「Can I Run AI locally?」。

「Can I Run AI locally?」の使い方。評価が緑系の文字で書かれているモデルは実用可能な水準で動く可能性があり。絞り込み設定を「Can run (S/A/B)」に変えると見やすくなります
Image: かみやまたくみ

アクセスすると、そのパソコンで動くローカルLLMが表示されます。

モデル名の右のほうに「DECENT 64/100」などと表示されますが、これは「どれくらい動く見込みか」を表しています。文字の色が緑系なら「実用できる可能性」がある水準なので、ダウンロードして試してみてもいいでしょう。

・緑(RUNS GREAT)=ラクラク動く

・エメラルド(RUNS WELL)=よく動く

・黄緑(DECENT)=まぁまぁ動く

赤っぽい色になると実用レベルでは動作しないと思います。

初期設定だと動かないモデルも表示されるようになっていますが、あまり意味がないうえに見づらい。そのため、表示される量を減らすよう設定を変えるのがおすすめです。「All grades」を「Can run (S/A/B)」に変えると「動くモデルだけ」が表示されるようになってすっきりします。

Source: Can I Run AI locally?

「LM Studio」ではじめるローカルLLM。“ガチ無料AI”を徹底解説

MacBookで動くし、ぶっ壊れ性能。いま最強のローカルLLM「Qwen3.5」を解説しちゃう