大規模言語モデルをLoRAで低コストかつ効率的に微調整できる「Punica」が登場
2023.11.09 15:00
Livedoor.com

Low Rank Adapation(LoRA)はAIへの追加学習を少ない計算量で行うためのモデルです。このLoRAを使って、事前トレーニングされた大規模言語モデルに低コストかつ効率的にファインチューニング(微調整)を行えるシステム「Punica」を、ワシントン大学とデューク大学の研究チームが公開しました。GitHub - punica-ai/punica: Serving multiple LoRA finetuned LLM as onehttps://github.com/punica-ai/punica[…
検索
人気記事
コメント一覧
まだコメントはありません。