18 倍運算速度 | ChatGPT 看不見的車尾燈
2024.02.20 19:53
Soft4fun.net
(硬是要學/手哥 HANDBRO 報導)
由新創公司 Groq 開發的語言模型處理器 (LPU) 是專為運行語言模型而生,透過更為精簡的 tensor streaming architecture 晶片架構、更高速的記憶體 (使用 SRAM)、更大的記憶體頻寬,讓處理器可以大幅提升語言模型的處理效率。
本文 18 倍運算速度 | ChatGPT 看不見的車尾燈 最早出現於 硬是要學。