日本に拠点を置くAI企業「Sakana AI」がキャッシュメモリの使用量を最大75%削減する技術「NAMM」を開発
2024.12.18 12:45
Livedoor.com
Sakana AIが「進化したユニバーサルトランスフォーマーメモリ」という論文を発表しました。論文によると、ニューラルアテンションメモリーモデル(NAMM)という新たな仕組みを導入することでコンテキストにおいて冗長な情報を削減でき、推論時のメモリ効率を高めることができたとのことです。An Evolved Universal Transformer Memoryhttps://sakana.ai/namm/[2410.13166] An Evolved Universal Transformer Memoryhtt…
検索
人気記事
コメント一覧
まだコメントはありません。