DeepSeekが示す、すべてを変える可能性のあるAIの新しい学習方法

新年を迎える直前、AI界に驚きのニュースが飛び込んできました。中国のAI企業であるディープシーク社が、新しいトレーニング方法に関する論文を発表したのです。その名も「Manifold-Constrained Hyper-Connections」(mHC)。このアイデアは、大規模な計算能力を必要とせずに、言語モデルのような大規模なAIモデルを訓練することです。大きなAIモデルのトレーニングには通常、莫大な費用がかかるため、これは大きな問題です。GPUや専用チップの巨大なクラスタが必要だからです。ほとんどの人は、大企業しかできないと思い込んでいました。DeepSeekはそうではないことを証明しています。昨年、ディープシークはR1というモデルを発表しました。このモデルは、OpenAIのo1に似た能力を持つはずでした。しかし、そのトレーニングコストははるかに低いものでした。これは米国のハイテク企業の注目を集めました。何十億ドルも必要としないことを示したのです。

コミュニティに参加する

コミュニティに参加する