DeepSeekがやっていると噂の蒸留というやつを、ローカルLLMで今すぐやってみる 前編|yuiseki

2025.02.02 16:21
Zenn.dev

前提 この記事では、「Symbolic Knowledge Distillation: from General Language Models to Commonsense Models」という論文で提案されている 記号知識蒸留 を、ローカルLLMで日本語で実験する。 詳細 知識蒸留 (Knowledge Distillation) とは、大きなモデル (教師) から小さなモデル (生徒) に知識を転送する手法である...

検索

人気記事

2025.12.03 11:26
2025.12.03 6:03
2025.12.03 6:24
2025.12.03 5:20
2025.12.02 7:46

コメント一覧

まだコメントはありません。

コメント