LLM 救星?DeepSeek 推出 DeepSeek-OCR,Token 節省高達 90%

2025.10.21 13:25
Soft4fun.net

[ comments ]








2025 年 10 月 21 日


在處理長篇文本時,LLM 往往會因序列過長而消耗大量資源,DeepSeek-AI 最新發表的研究成果 —— DeepSeek-OCR 模型,他以「視覺壓縮」的創新方法,大幅降低 90% 以上的 Token 使用率,為解決 LLM 記憶負擔找出了一條新路。



而 DeepSeek-OCR 的創新點,就在於「把文件轉成圖片 → 圖片轉成極少量的 vision tokens → 再還原成原始文本」,這整個過程就是所謂的 Co…

検索

人気記事

2026.04.11 23:00
2026.04.12 0:00
2026.04.11 18:00
2026.04.12 0:07
2026.04.11 23:35

コメント一覧

まだコメントはありません。

コメント