DeepSeekがやっていると噂の蒸留というやつを、ローカルLLMで今すぐやってみる 前編|yuiseki

2025.02.02 16:21
Zenn.dev

前提 この記事では、「Symbolic Knowledge Distillation: from General Language Models to Commonsense Models」という論文で提案されている 記号知識蒸留 を、ローカルLLMで日本語で実験する。 詳細 知識蒸留 (Knowledge Distillation) とは、大きなモデル (教師) から小さなモデル (生徒) に知識を転送する手法である...

検索

人気記事

2026.05.10 11:05
2026.05.10 12:00
2026.05.10 16:30
2026.05.10 16:00
2026.05.10 21:00

コメント一覧

まだコメントはありません。

コメント