AIの研究において、進歩とはしばしば、より大きなモデルであることと同一視されます。しかし サムスン のモントリオールAIラボ(SAL)は、異なるアプローチで有望な結果を示しています。彼らの新しいTiny Recursive Model(TRM)は、性能がパラメータの数に比例するという仮定を覆します。 . このモデルはわずか700万個のパラメータしか持たないにもかかわらず、数千倍のシステムに匹敵する、あるいはそれ以上の推論能力を示しています。
のオープンソースリリースでは ギットハブ SAILラボは、コアとなる再帰プロセスを備えたAIモデルの設計と、それに対応するarXivの論文について説明しています。 モデル構築への再帰的アプローチ TRMでは、大規模なネットワークを構築する代わりに、再帰を用います。再帰とは、「私の答えは良いですか?もしそうでないなら、もっと良くできるだろうか?"と繰り返し問いかけるようなものです。モデルは一度答えを出したら、また戻ってそれを改良します。
こちらもお読みください: CTCSP株式会社、「デジタルワークプレイス for AI」ソリューションを発表
このプロセスは、モデルが満足するまで何度か繰り返されます。TRMの論文の中で、著者たちは「収束を仮定することなく、潜在状態と出力状態を再帰的に改良する」と述べています。これはつまり、早い段階でモデルを単一の固定した答えに強制的に落ち着かせないということです。さらに、ディープ・スーパービジョンを使用し、学習を助けるために、最後だけでなく複数のステップでフィードバックを提供します。また、適応型ハルティングを使用することで、モデルを延々と走らせるのではなく、洗練を停止するタイミングを決定します。"再帰によって、わずか数個のパラメーターを持つモデルは、推論タスクで驚くほど強力な性能を達成することができます" サムスン 研究者のAlexia Jolicoeur-Martineau氏らは、GitHubリポジトリとarXivで公開された論文でこのように書いています。
ソース ヤフー

