M1MacでOllamaを試したら爆速で驚いた

2024.05.18 23:50
Zenn.dev

はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今回はMacOSでOllamaを入れてLlama3を動かしてみました。 スペック: Apple M1 Pro(16 GB) 少し前だとCUDAのないMacでは推論は難しい感じだったと思いますが、今ではOllamaのおかげでMacでもLLMが動くと口コミを見かけ...

検索

人気記事

2026.04.10 6:45
2026.04.09 22:22
2026.04.09 20:27
2026.04.09 11:33
2026.04.09 16:08

コメント一覧

まだコメントはありません。

コメント