Ollama + phi-4 + Cool Cline を使いローカルでコード生成を試す
2025.01.12 18:48
Zenn.dev
ローカル環境で手軽に大規模言語モデル (LLM) を試せる Ollama と phi-4 モデル、そして VS Code の拡張機能である Cool Cline を組み合わせて、コード生成を行うメモです。WSL2でもできると思います。 環境 Ubuntu 24.04 Docker GeForce RTX 4060Ti(VRAM 16GB) VS Code Cool Cline 拡張機能 手順 Dockerのインストール...