新年を迎える直前、AI界に驚きのニュースが飛び込んできました。中国のAI企業であるディープシーク社が、新しいトレーニング方法に関する論文を発表したのです。その名も「Manifold-Constrained Hyper-Connections」(mHC)。このアイデアは、大規模な計算能力を必要とせずに、言語モデルのような大規模なAIモデルを訓練することです。.
大規模なAIモデルのトレーニングには通常、莫大な費用がかかるからです。GPUや専用チップの巨大なクラスタが必要だからです。ほとんどの人は、大企業しかできないと思い込んでいました。DeepSeekはそうではないことを証明しています。.
昨年、ディープシークはR1というモデルを発表しました。これはOpenAIのo1と似たような能力を持つはずでした。しかし、そのトレーニング費用ははるかに低かったのです。これは米国のハイテク企業の注目を集めました。AIで競争するために何十億ドルも必要ないことを示したのです。スマートなエンジニアリングで勝負できるのです。.
現在、mHC技術は彼らの次のモデル、R2の基礎となる可能性があります。R2は2025年半ばに発表される予定でしたが、遅れました。理由はいくつかあります。最先端のAIチップは中国では入手困難。そして、ディープシークのCEOであるリャン・ウェンフェンは性能に懸念を抱いていました。.
こちらもお読みください: 日本のAIの次なるフロンティア:デジタル・ツイン・プラットフォームで実現する「フィジカルAI
それでも、mHCの論文では ディープシーク はまだ限界に挑戦しています。R2がmHCを使えば、AIのトレーニングがもっと効率的になるかもしれません。アメリカやヨーロッパのような莫大な予算を必要とせず、小規模なチームが高度なモデルを構築できるようになるかもしれません。.
ディープシークは一貫して、エンジニアリングが資金力に勝ることを証明してきました。最初はR1、次はmHC。AI競争は資金だけではないことを思い知らされます。巧みな技術は、資金だけでは開けない扉を開くことができるのです。.
この方法が普及すれば、AIエコシステム全体の仕組みが変わるかもしれません。小規模な開発者たちも、ついに大手テック企業と同じ土俵に立つことができるのです。そして、AI開発を一部の国に集中させてきた天文学的なコストをかけずに、より早い進歩が見られるかもしれません。.
R2がいつ出てくるか、正確には誰にもわかりません。しかし、mHCの研究はディープシークが考えていることのヒントになります。彼らはAIをよりスケーラブルで身近なものにしようとしているのです。もし彼らが成功すれば、AIゲームのルールは再び変わるかもしれません」。.

