DeepSeekがやっていると噂の蒸留というやつを、ローカルLLMで今すぐやってみる 前編|yuiseki

2025.02.02 16:21
Zenn.dev

前提 この記事では、「Symbolic Knowledge Distillation: from General Language Models to Commonsense Models」という論文で提案されている 記号知識蒸留 を、ローカルLLMで日本語で実験する。 詳細 知識蒸留 (Knowledge Distillation) とは、大きなモデル (教師) から小さなモデル (生徒) に知識を転送する手法である...

検索

人気記事

2025.01.10 19:00
2025.07.03 6:12
2025.07.04 23:00
2025.07.04 19:03
2025.07.04 19:48

コメント一覧

まだコメントはありません。

コメント