M1MacでOllamaを試したら爆速で驚いた

2024.05.18 23:50
Zenn.dev

はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今回はMacOSでOllamaを入れてLlama3を動かしてみました。 スペック: Apple M1 Pro(16 GB) 少し前だとCUDAのないMacでは推論は難しい感じだったと思いますが、今ではOllamaのおかげでMacでもLLMが動くと口コミを見かけ...

検索

人気記事

2024.03.26 11:00
2024.03.21 13:55
2023.12.21 19:17
2025.02.22 12:32
2023.11.22 14:26

コメント一覧

まだコメントはありません。

コメント