GPUが無い環境でローカルLLMを動かす方法

2026.02.02 5:08
Zenn.dev

はじめに こんにちは! ハッカソンでGPUがないノートパソコンで、ローカルLLMを動かすことに苦戦したアヤノです。 たまにGPUがない環境でローカルLLMを使わざるを得なくなるため、その方法をまとめました。本来ならローカルでOllamaを動かす方が良いのですが、今回はどの環境でも確実かつ簡単に動かすためにDockerの上で...

検索

人気記事

2026.04.06 0:00
2026.04.05 23:05
2026.04.05 23:55
2026.04.05 20:34
2026.04.05 22:24

コメント一覧

まだコメントはありません。

コメント