ローカルLLMをEVO X2でホストする方法まとめ
2025.08.24 18:05
Light-of-moe.ddo.jp
最近買ったEVO X2でローカルLLMを動かそうと色々試してみていました。 ollama LM Studio llama.cpp などがよく聞く手段でしょうか。NVIDIA製のGPUであれば上記のどれでも安定して動くと思います。 しかしEVO X2はAMD製のGPUなため微妙に安定しません。特にrocmというNVIDIAでいうところのCUDA相当のライブラリはまだryze...