さまざまなAIをWindowsのローカルPCで動かせる「Run llama.cpp Portable Zip on Intel GPU with IPEX-LLM」がDeepSeekにも対応したことをIntelが発表

2025.03.09 13:00
Livedoor.com

近年、高度な生成AIや大規模言語モデルが多数登場していますが、それらを動作させるには高価なGPUなど、相応の機器が必要となります。しかし、Intelが提供するPyTorch用エクステンションの「IPEX-LLM」では、Intel製ディスクリートGPUなどでGemmaやLlamaなどのAIを動作させることが可能です。今回、そんなIPEX-LLMがDeepSeek R1に対応したことをIntelが発表しました。ipex-llm/docs/mddocs/Quickstart/llamacpp_portable_zip_…

検索

人気記事

2024.11.14 14:33
2025.10.30 18:44
2024.11.22 14:25
2025.10.30 23:06
2025.10.30 12:34

コメント一覧

まだコメントはありません。

コメント