【徹底解説】DeepSeek革命のすべて
Multi-head attentionとは、入力されてくる文章や画像から注目点を計算する方法として機械学習では広く使われている。DeepSeekのMulti-head latent attentionとは、注目点を計算するための鍵(key)と値(value)を圧縮して共通化することによって計算作業を効率化する方法なのだという。
また、MoE(Mixture-of-experts 複数の専門家)とは、AIがいろいろな文章を学習していくにあたって、頭脳のなかに化学の専門家、文学の専門家、といったように多数の「専門家」を用意し、入力されてくる文章に応じてそれに適した専門家たちを動員して学習していくという仕組みで、他社も採用している。
DeepSeekMoEは専門家をより細分化することと、常に動員する共通の専門家を用意して共通性の高い知識を学習させることに特徴がある。以上二つとも生成AIの世界ではかなり広く使われている計算方法であるが、DeepSeekはそれを改良することによって格段に高い効率を実現した。
DeepSeekを生み出した幻方量化とはいったいいかなる会社なのであろうか。その創立者の梁文鋒は1985年に広東省湛江市生まれ。17歳で浙江大学電子情報エンジニアリング科に入学し、同大学の修士課程を修了した。2015年に株などの高速取引を行うクオンツ・ファンド、幻方量化を創立し、成功を収めて2021年には資産規模を1000億元近くにまで拡大した(劉・屈、2025)。
【徹底解説】DeepSeek革命のすべて 2025.02.15
EVと太陽電池に「過剰生産能力」はあるのか? 2024.05.29
情報機関が異例の口出し、閉塞感つのる中国経済 2024.02.13
スタバを迎え撃つ中華系カフェチェーンの挑戦 2024.01.30
出稼ぎ労働者に寄り添う深圳と重慶、冷酷な北京 2023.12.07
新参の都市住民が暮らす中国「城中村」というスラム 2023.11.06
不動産バブル崩壊で中国経済は「日本化」するか 2023.10.26