ローカルLLMをEVO X2でホストする方法まとめ

2025.08.24 18:05
Light-of-moe.ddo.jp

最近買ったEVO X2でローカルLLMを動かそうと色々試してみていました。 ollama LM Studio llama.cpp などがよく聞く手段でしょうか。NVIDIA製のGPUであれば上記のどれでも安定して動くと思います。 しかしEVO X2はAMD製のGPUなため微妙に安定しません。特にrocmというNVIDIAでいうところのCUDA相当のライブラリはまだryze...

検索

人気記事

2025.09.08 13:00
2025.09.04 13:56
2025.08.30 19:05
2025.09.08 10:26
2025.09.05 20:41

コメント一覧

まだコメントはありません。

コメント