DeepSeekは、より優れたChatGPTとして称賛されている。元マイクロソフト社員が、この新しいAIチャットボットがなぜ衝撃的であるかを説明する。
A Sputnik Moment
– 元マイクロソフト社員のデイブ・プラマー氏は、自身のYouTubeチャンネル「デイブズ・ガレージ」で、中国のAIチャットボット「DeepSeek」について語っている。同氏は、競合製品である「ChatGPT」と比較してDeepSeekが特別である理由を説明している。
A スペアパーツから組み立てられたフェラーリのようなものだ。性能は同等だが、はるかに安価だ。
師匠と弟子のように
これは、異なるタイプのトレーニングによって可能になります。ChatGPTと同様に、DeepSeekも大規模言語モデルです。しかし、これは蒸留モデル
(蒸留モデル
)です。
これは、より小さなモデルが、より大きなモデルを使用してトレーニングされ、より大きなモデルの結果とできる限り類似した結果を、より少ないリソースで提供することを意味します。
そのため、巨大なモデルの方が依然としてより多くの知識ベースを持っているものの、ほとんどの用途において、より小さなモデルでもほぼ同等の性能を発揮します。
Plummer氏は、この点を自身のビデオで次のように説明しています。
It’s like a master training his apprentice – the apprentice doesn’t need to know everything, but they can do the job just as well.
そのうちの1つが、MetaのオープンソースモデルであるLlamaですが、OpenAIのChatGPTも含まれます。
この知識の蒸留により、DeepSeekは大幅にリソース効率が向上します。また、大規模なモデルのように巨大なデータセンターに数百のGPUを搭載した膨大なハードウェアも必要なくなります。
しかし、これはまた、Plummerが疑問を抱くことにもつながります。
もしあなたのガレージでシボレーの部品を使ってフェラーリを組み立てることができたとしたら、それはフェラーリの価値にとって何を意味するのでしょうか?
PC革命を思い出す
高価なオリジナルのフェラーリにとっては、これはまずい兆候です。
しかし、ユーザーにとっては、自宅のハードウェアでローカルにモデルを実行できるという利点があります。 もちろん、DeepSeekはあらゆる小型のノートパソコンでローカルに実行できるわけではありません。Plummer氏によると、DeepSeekの最大モデルでは、Nvidia RTX 6000 GPU(48 GB VRAM)搭載のAMD Threadripperが必要です。より小型のモデルであれば、MacBook Proでも実行できます。
この開発は、彼にPC革命の時代を思い出させる。
それはPCの初期の時代を思い出させる。メインフレームほど良くはなかったが、世界を変えた。
コンピュータがまだビジネスアプリケーション用のメインフレームシステム(メインフレーム
)だった時代には、誰もがいずれ手頃な価格で自宅に一台持つようになるなどとは想像もできなかったでしょう。
A Sputnik moment
Unlike the PC revolution, however, the geopolitical implications must also be considered today DeepSeek is a Chinese model that is particularly competing with US Silicon Valley companies.
PlummerはこれをSputnik moment
と表現している。これは、1957年の打ち上げにより宇宙開発競争(宇宙開発競争
)の幕開けとなり、冷戦におけるソビエト連邦と西側諸国との新たな体制競争の局面となった、ソビエト連邦の人工衛星スプートニクを指しています。
同様に、DeepSeekの開発は、 米国の技術的覇権と中国の新興世界大国としての競争を激化させています。
この技術競争は、単に革新をめぐる闘争にとどまらず、米国の資本主義民主主義と中国の国家資本主義の間の体制的対立の象徴でもあります。