さまざまなAIをWindowsのローカルPCで動かせる「Run llama.cpp Portable Zip on Intel GPU with IPEX-LLM」がDeepSeekにも対応したことをIntelが発表

2025.03.09 13:00
Livedoor.com

近年、高度な生成AIや大規模言語モデルが多数登場していますが、それらを動作させるには高価なGPUなど、相応の機器が必要となります。しかし、Intelが提供するPyTorch用エクステンションの「IPEX-LLM」では、Intel製ディスクリートGPUなどでGemmaやLlamaなどのAIを動作させることが可能です。今回、そんなIPEX-LLMがDeepSeek R1に対応したことをIntelが発表しました。ipex-llm/docs/mddocs/Quickstart/llamacpp_portable_zip_…

検索

人気記事

2025.09.04 13:56
2025.08.30 19:05
2025.09.08 13:00
2025.09.05 20:41
2025.09.08 10:26

コメント一覧

まだコメントはありません。

コメント