M1MacでOllamaを試したら爆速で驚いた

2024.05.18 23:50
Zenn.dev

はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今回はMacOSでOllamaを入れてLlama3を動かしてみました。 スペック: Apple M1 Pro(16 GB) 少し前だとCUDAのないMacでは推論は難しい感じだったと思いますが、今ではOllamaのおかげでMacでもLLMが動くと口コミを見かけ...

検索

人気記事

2024.04.20 18:11
2024.07.29 19:00
2024.01.09 17:30
2024.01.09 19:00
2024.01.03 8:52

コメント一覧

まだコメントはありません。

コメント