M1MacでOllamaを試したら爆速で驚いた

2024.05.18 23:50
Zenn.dev

はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今回はMacOSでOllamaを入れてLlama3を動かしてみました。 スペック: Apple M1 Pro(16 GB) 少し前だとCUDAのないMacでは推論は難しい感じだったと思いますが、今ではOllamaのおかげでMacでもLLMが動くと口コミを見かけ...

検索

人気記事

2024.09.13 13:00
2024.09.21 2:40
2024.07.16 15:25
2024.08.31 3:39
2024.03.31 12:00

コメント一覧

まだコメントはありません。

コメント