M1MacでOllamaを試したら爆速で驚いた

2024.05.18 23:50
Zenn.dev

はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今回はMacOSでOllamaを入れてLlama3を動かしてみました。 スペック: Apple M1 Pro(16 GB) 少し前だとCUDAのないMacでは推論は難しい感じだったと思いますが、今ではOllamaのおかげでMacでもLLMが動くと口コミを見かけ...

検索

人気記事

2024.08.09 15:07
2025.09.16 6:04
2025.09.16 4:30
2025.09.16 6:40
2025.09.16 6:30

コメント一覧

まだコメントはありません。

コメント