AIの主流はChatGPTやGeminiなどのクラウドサービスですが、「利用制限に縛られずにAIを実行したい」とか「オフラインでもAIを実行したい」といった事情からローカルでAIモデルを実行するユーザーも数多く存在しています。ローカルで実行できるAIモデルの種類はPCのスペックによって変化しますが、AIモデルの種類が多すぎて「自分のPCでどのAIモデルが動くのか分からない」という状況に陥りがち。そんな時に役立つウェブサイトが「CanIRun.ai」で、アクセスするだけでPCの構成を検出して実行可能なAIモデルを教えてくれます。

CanIRun.ai - Can your machine run AI models?

https://www.canirun.ai/

CanIRun.aiにアクセスすると、自動的にPCのパーツ構成が読み取られ、各種AIモデルの動作可能性が表示されます。なお、Firefoxだと構成読み取りに失敗することがあったので、EdgeやChromeでアクセスすることを推奨します。



動作可能性はS〜Fの6段階で表示されます。Sだと「このPCで非常に快適に実行可能なAIモデル」、Fだと「このPCにとって重すぎるAIモデル」ということを示しています。GeForce RTX 5070Tiを搭載したPCの場合、Llama 3.1 8BやQwen 3.5 9Bといったモデルなら快適に実行できるものの、Llama 3.3 70Bやgpt-oss 120Bは重すぎるということが分かります。



試しに専用GPUを搭載していないノートPCでアクセスしてみたところ、中量級以上のモデルは軒並み動作困難でした。



Qwen 3.5 0.8BやLlama 3.2 1Bといった軽量モデルならノートPCでも快適に実行できます。



CanIRun.aiにはGPUの比較ページも用意されています。初期状態だと、自分のPCに搭載しているGPUとAppleのM5 Max(メモリ36GB)の比較が表示されます。



比較対象は自由に選択可能。今回は「GeForce RTX 5070TiからGeForce RTX 5090に買い替えたらどうなるか」ということを調べるためにプルダウンメニューから「RTX 5090 (32GB)」を選択しました。



各モデルの動作可能性と1秒当たりの処理トークン数がズラリと表示されます。GeForce RTX 5090はGeForce RTX 5070Tiの約2倍の速度で生成処理を実行可能であることが分かります。



GeForce RTX 5070Tiでは動作困難なQwen 3.5 35B-A3Bのような重量級モデルでもGeForce RTX 5090なら快適に実行できます。



CanIRun.aiはWebGPU APIなどを活用してPCのパーツ構成を取得しています。詳しい仕組みは以下のリンク先にまとまっています。

Why - CanIRun.ai

https://www.canirun.ai/why