ローカルLLMをEVO X2でホストする方法まとめ

2025.08.24 18:05
Light-of-moe.ddo.jp

最近買ったEVO X2でローカルLLMを動かそうと色々試してみていました。 ollama LM Studio llama.cpp などがよく聞く手段でしょうか。NVIDIA製のGPUであれば上記のどれでも安定して動くと思います。 しかしEVO X2はAMD製のGPUなため微妙に安定しません。特にrocmというNVIDIAでいうところのCUDA相当のライブラリはまだryze...

検索

人気記事

2026.04.09 22:22
2026.04.09 20:27
2026.04.09 11:33
2026.04.09 18:01
2026.04.09 16:08

コメント一覧

まだコメントはありません。

コメント