Ollama + phi-4 + Cool Cline を使いローカルでコード生成を試す

2025.01.12 18:48
Zenn.dev

ローカル環境で手軽に大規模言語モデル (LLM) を試せる Ollama と phi-4 モデル、そして VS Code の拡張機能である Cool Cline を組み合わせて、コード生成を行うメモです。WSL2でもできると思います。 環境 Ubuntu 24.04 Docker GeForce RTX 4060Ti(VRAM 16GB) VS Code Cool Cline 拡張機能 手順 Dockerのインストール...

検索

人気記事

2025.01.10 19:00
2024.12.07 19:00
2025.06.13 20:45
2025.06.13 7:27
2025.06.12 12:39

コメント一覧

まだコメントはありません。

コメント