さまざまなAIをWindowsのローカルPCで動かせる「Run llama.cpp Portable Zip on Intel GPU with IPEX-LLM」がDeepSeekにも対応したことをIntelが発表

2025.03.09 13:00
Livedoor.com

近年、高度な生成AIや大規模言語モデルが多数登場していますが、それらを動作させるには高価なGPUなど、相応の機器が必要となります。しかし、Intelが提供するPyTorch用エクステンションの「IPEX-LLM」では、Intel製ディスクリートGPUなどでGemmaやLlamaなどのAIを動作させることが可能です。今回、そんなIPEX-LLMがDeepSeek R1に対応したことをIntelが発表しました。ipex-llm/docs/mddocs/Quickstart/llamacpp_portable_zip_…

検索

人気記事

2024.03.12 22:53
2024.03.06 10:20
2025.02.22 19:57
2023.11.16 9:40
2024.03.17 11:00

コメント一覧

まだコメントはありません。

コメント