中国の「DeepSeek Coder」、「GPT-4 Turbo」の性能を破った初のオープンソースコーディングモデルに

2024.06.19 7:00
Thebridge.jp

中国の AI スタートアップ DeepSeek(深度求索)は、2兆の英語と中国語のトークンに学習させた ChatGPT の競合で話題になったことがあるが、オープンソースの MoE(Mixture of Experts、タスクに応じて専門家を選ぶ仕組み)コード言語モデル「であるDeepSeek Coder V2」のリリースを発表した。 先月デビューした MoE モデル「DeepSeek-V2」をベー...
The post 中国の「DeepSeek Coder」、「GPT-4 Turbo」の性能を破った初のオープン…

検索

人気記事

2024.07.22 18:00
2024.09.16 21:05
2024.10.21 5:00
2024.09.12 14:56
2024.10.20 23:09

コメント一覧

まだコメントはありません。

コメント