AWARE オリジナル

2025年01月28日

AIエコシステムに対するDeepSeekの含意

ソン・リュンス    avatar

ソン・リュンス

AIエコシステムに対するDeepSeekの含意 썸네일 이미지

AWAREリサーチの原則

我々がリサーチを行う際の第一原則は、韓国語の資料を参考にしたり信じたりしないことである。第二原則は、一次情報源(ソース)に基づくことである。第三原則は、ソーシャルメディア上の有名人(インフルエンサー)の言葉を信頼しないことである。

エイブラハム・リンカーン、インターネット情報に関するミーム
エイブラハム・リンカーン、インターネット情報に関するミーム

信頼できない情報の例

以下は、DeepSeekに対する新栄証券半導体担当パク・サンウク先任研究員のコメントである。


DeepSeekAIテック株急落に関するコメント

  • 中国DeepSeekの影響により、Broadcom、NVIDIA、MicronなどAI関連企業の株価が弱含みで推移。
  • DeepSeekは2023年に設立された中国のAIスタートアップで、効率的なAIモデル開発で注目されている。DeepSeekの発表によれば、最先端のハードウェアなしでも低コストで高性能AIを実現可能である。実際にChatGPT o1と比較した際、回答レベルが類似していることが確認された。
  • 海外メディアによれば、DeepSeekは対中規制により性能が制限されたH800チップを使用した。DeepSeekはH800を1時間あたり2ドルのコストで2ヶ月間レンタルしたと推測され、総コストは約58万ドルで、Llama 3の学習コストの10分の1レベルである。DeepSeekは限られたリソースで高性能AI開発が可能であることを実証した。
  • DeepSeekの発表により、今後米国のビッグテック企業において効率性中心の開発トレンドが強化される可能性が高いと判断される。コスト効率化がコスト削減を意味するわけではないが、投資を保守的に執行する可能性が高い。1月末から始まるビッグテック企業の決算発表に注目する必要がある。
  • また、今回の発表により、対中輸出規制が強化される可能性が高い。中国が低コストで高性能AIを実現可能であることが確認されたことで、H800のような対中輸出用AI半導体も規制対象になると見込まれる。半導体素材、部品、装置もまた規制から自由ではないと判断される。DeepSeekは米中貿易摩擦激化の契機になると予想される。
  • 当社は、DeepSeekがH800でAIを学習させたかという事実関係を確認する必要があると判断する。中国は米国の輸出規制を迂回し、H100など最新のAI半導体を輸入していると把握されている。最近、Scale AIのCEOであるAlexandr WangはCNBCのインタビューで、DeepSeekがすでに5万個以上のH100を保有していると明らかにした。5万個のH100の価格はおよそ15億ドルで、DeepSeekのAI開発コストと推定される58万ドルの2,586倍のレベルである。ラッキンコーヒー(Luckin Coffee)、EHangなど内部情報を統制していた事例を考慮すれば、DeepSeekに関する情報も誇張されている可能性が存在すると判断される。

議論となったのはDeepSeekのV3モデルで、従来より低コストでOpenAIのo1モデルと同等の性能を出すと主張し、AIインフラ(GPUなど)への過剰投資が行われているのではないかという懸念を引き起こし、月曜日のAI関連株のパニック売りを招いた。AIインフラの代表格であるNVIDIA(NVDA)の場合、一日で16.97%暴落するほど、投資家心理に甚大な悪影響を及ぼしたと言える。

一次情報源に基づく情報

DeepSeek-V3 トレーニングコスト | DeepSeek-V3 Technical Report
DeepSeek-V3 トレーニングコスト | DeepSeek-V3 Technical Report
  • DeepSeekはV3 Technical Reportにて、トレーニングコストが$5.57 million、つまり557万ドルであると明らかにした。パク・サンウク研究員の58万ドルはどこから出てきた数字なのか不明だが、どうか誤記であってほしいと願う。
  • DeepSeekは、NVIDIAのH800 GPU 2,048個がNVLinkとNVSwitchで接続されたGPUクラスターを使用してV3モデルを学習させたと明らかにした。
  • 当該クラスターでPre-Trainingに使用されたH800 GPU Hoursを割ると、約2ヶ月に満たない期間となる。すべてのプロセスが2ヶ月で完了したという話ではない。
  • DeepSeekは「上記のコストはDeepSeek-V3の公式トレーニングにのみ該当し、アーキテクチャ、アルゴリズム、データに関連する事前研究やablation(アブレーション)にかかったコストは含まれない」と明示した。

一次情報をもとに加工された知識

Riot Gamesで研究員として働き、Johns Hopkins大学で人工知能修士を修了したErykが運営するブログ記事Deepseek-V3 Training Budget Fermi Estimationの核心内容を要約してみよう。

  • DeepSeek-V3のトレーニング費用:557万ドルという数字は、トレーニング全体の費用ではなく、GPUのレンタル時間に基づいて算出された値である。
  • トレーニング時間およびトークン数:論文で提示された278.8万GPU時間と14.8兆トークンという数値は、十分に実現可能であると判断される。
  • ボトルネックの解消:fp8混合精度とMoEの最適化により、トレーニングの効率性を高めた。
  • 結論:論文で主張されているトレーニング時間と費用は現実的であり、技術的な改善がこれを可能にした。

DeepSeek-V3の論文で主張されているトレーニング時間とトークン数は、十分に検証可能な水準である。論文にある557万ドルという費用は、モデル全体のトレーニング費用ではなく、GPUのレンタル時間に基づいて算出された値だ。結論として、DeepSeek-V3が14.8兆トークンを278.8万GPU時間でトレーニングしたという主張は現実的であり、論文で提示されたモデルの最適化とボトルネックの解消がこれを裏付けている。

陰謀論の検証および結論

シンヨン証券のパク・サンウク研究員をはじめとする陰謀論者が提起する「DeepSeekは実際にはH800よりも性能が高い(中国への輸出が制限されている)H100 GPUを使用してトレーニングを行ったはずだ」という主張は、信憑性に欠ける。DeepSeekの研究チームは、H100に比べてインターコネクト帯域幅が制限されたH800クラスターのボトルネックを補うため、様々な最適化手法(fp8トレーニング、ロードバランシングMoE、DualPipeなど)を動員し、これを約13%削減したと推定される。もしH100を使用してトレーニングを行っていたならば、これほどの最適化は必要なかった可能性が非常に高い。

DeepSeekは論文を通じて、実現不可能なレベルの主張をしたわけではない。一部の人々が論文の内容を拡大解釈し、「誰でも550万ドルあれば、GPT o1に匹敵するモデルを2ヶ月で作ることができる」という誤った主張をしていることが問題の本質である。OpenAIのGPT o1やDeepSeek V3レベルのモデルを作成するには、優秀な人材による広範な先行研究と、幾度ものモデルトレーニングが必要となる。DeepSeekは、V3モデルの最も成功したトレーニングを実行するのに557万ドルかかったと明らかにしているに過ぎない。

戦略的な対応策

残りのコンテンツはPROメンバーシップでご覧いただけます。

今すぐ登録して全文をご覧ください。
他では得られない卓越したインサイトを提供します。

すでにメンバーですか? ログイン
コメント0

ニュースレター

オリジナルコンテンツ、ニュースレター、特別イベントに関する最新情報をいち早くお届けします。

続きを読む