「Ollama」は「Llama 2」「Mistral」「Vicuna」「LLaVA」といった大規模言語モデル(LLM)をローカルで比較的簡単に動作させられるライブラリです。そんなOllamaがAMD製グラフィックボードでの動作に対応しました。Ollama now supports AMD graphics cards · Ollama Bloghttps://ollama.com/blog/amd-previewOllamaはWindows、macOS、Linux向けに公開されているライブラリで、公式Dockerイメージも配布されています。以下の記事