ジェネレーティブAIの登場後、急速に普及。現在、Open AI社の「ChatGPT」、Google社の「Gemini」、Microsoft社の「Copilot」など、多くのジェネレーティブAIサービスがリリースされています。一大ムーブメントとなったジェネレーティブAIですが、ソフトバンクは大規模言語モデル(LLM)の開発から「Gen-AX」「TASUKI」といった法人向けサービスの提供、個人向けジェネレーティブAIサービス「satto」や「Perplexity」との提携など、幅広く取り組んでいます。なかでも積極的に取り組んでいるのが、AIの基礎技術を開発するため、大量のデータを学習し、複雑な計算を行うAIコンピューティングプラットフォームの開発。2023年9月、ソフトバンクは「エヌビディア・アンペアGPU」2,000個以上を使い、0.7エクサフロップス(1エクサフロップスとは、1秒間に100兆回の浮動小数点演算を行う能力)のAIコンピューティングプラットフォームの運用を開始。2024年10月までに、ソフトバンクは4,000台以上のNVIDIA Hopper GPUを導入し、その計算能力を4.7エクサフロップスまで高める予定です。ソフトバンクの共通プラットフォーム開発部門の責任者であるアシーク・カーン氏は、「ソフトバンクでは、AIを事業戦略の重要な柱と位置づけており、AIコンピューティング基盤の構築をものすごいスピードで進めました。実際には2~3カ月ほどで構築しました。現在、子会社のSBインテュイションズで日本のLLM『更科』の学習に活用されており、今後は国内企業や研究機関にも提供していく予定です」。カーン氏は、AIコンピューティング基盤が短期間で日本では前例のない規模で構築された理由について、「これまでのデータセンター構築の技術力があったからです。内製化を推進し、ネットワーク機器や高速ストレージの設計など、技術的な管理やインテグレーションを自社の社員が幅広く担っています"
さらに、同社はパートナー企業との関係も重視しています。「データセンターの構築には、NVIDIA、サーバーベンダー、スイッチなど多くのステークホルダーが関わっています。各社との連携から生まれる構築プロセスを並列化することで、工期を短縮することができます」と説明。こうした高度な並列化が可能なのは、大規模なハイパフォーマンス・コンピューティング(HPC)インフラの構築で培った詳細な知識と経験があるから。ソフトバンクでは、社内外のメンバーでAIコンピューティング基盤構築のためのチームを立ち上げました。"チームのメンバーはそれほど多くなく、データセンター内の機器やラック計画、GPUサーバー、データセンター内外のネットワーク、HPCストレージなどの設計・インテグレーションを社内で行っています。パートナーのエコシステムは非常に多様なので、国際的で高度なプロジェクト管理も不可欠です」。カーンの組織には、IT、通信、エンタープライズ・クラウドなど、あらゆるインフラ設計に対応できるメンバーが揃っており、カーン自身も20年以上インフラ設計に携わってきたエキスパート。「各プラットフォームの設計に長けたメンバーと協力することで、お互いに補完し合うことができます。今回のAIコンピューティング・プラットフォームのような新しい課題に対しても、ハードルを乗り越えて積極的に取り組むことができます」と、多様なメンバー。ひとつの組織がプラットフォームのノウハウをすべて持っているからこそ、まったく新しい大規模AIコンピューティングプラットフォームをこのスピードで構築できたのです。高い演算能力へのニーズはますます高まる 日本最大級のAIコンピューティングプラットフォームを構築した同社ですが、構築にあたってはさまざまな課題に直面しました。「規模が大きい分、機器の数も多く、配線も相当な数になりましたが、ソフトバンクは自社でデータセンターを構築するノウハウを持っているので、解決策を見つけるのは簡単でした。多くのプラットフォーム設計のデータを蓄積し、国内外のパートナーと連携することで解決策を見出すことができました」と、あらゆる面で過去の取り組みが活かされているとのこと。未踏の領域でAIコンピューティングプラットフォームの構築に取り組む意義について、カーン氏は「LLMを含むAI開発には膨大な学習が必要です。現在、世界のLLMの学習には主にAIコンピューティングプラットフォームが使われており、ソフトバンクは日本最大級のLLMの開発に取り組んでいます。
AIコンピューティングプラットフォームをいち早く導入することで、開発が迅速に進み、ビジネスにおける技術の自立性や独自性が高まります。こうしたAI開発の流れが、今後日本にも広がっていくことを期待しています」。AI開発のさらなる需要拡大に期待。気になるのはAIコンピューティングプラットフォームの演算能力。ジェネレーティブAIのモデルサイズが大きくなればなるほど、必要な演算能力は高くなります。コンピューティング・パワーがあれば、AI開発を迅速に進め、新しいサービスを次々と立ち上げることができます」。カーン氏は、「(コンピューティングパワーの向上は)間違いなく必要です」と述べ、今後さらなる向上が期待されるとしています。もうひとつ必要なのは電力量。「従来のデータセンターに比べ、AIデータセンターはより多くの電力を必要とします。電力不足への懸念から、ソフトバンクは再生可能エネルギーや自然由来のエネルギーを活用する方針を打ち出しています。日本のデータセンターは関東と関西に多く、二極構造になっています。そのため、電力会社には負担がかかります。次世代の社会インフラとなるデータセンターは、全国に分散させるべきです」。ソフトバンクは現在、「NVIDIA DGX B200」(以下、B200)を活用したAIコンピューティング基盤を強化中。NVIDIA DGX H100」(以下、H100)などを使って構築している現在のAIコンピューティング基盤は、2024年11月に発表された計算速度を競うスパコンの世界ランキング「TOP500」で16位、国内では理化学研究所と富士通が開発した「富嶽」に次いで2位にランクインしている高性能コンピューティング基盤。H100に比べ、B200の演算能力は2.25倍以上。
こちらもお読みください: AKAバーチャル、MOVE AIと販売代理店契約を締結
B200を使用して構築されたコンピューティング・プラットフォームは、SBインテュイションズが目標とする1兆パラメータLLMの開発に使用される予定です。将来的には外部への提供も検討中。カーン氏は「まだ前例のないAIデータセンターを積極的に開発しているのは ソフトバンク は技術的にもビジネス的にも世界の最先端を行く企業であり、今後もその地位を維持していきたいと考えています。他社に先駆けてAIコンピューティングプラットフォームを導入することで、いち早くLLMの開発に着手し、自社事業の独自性を高めることができました。これが、当社が率先してAIコンピューティング・プラットフォームに取り組んだ理由のひとつです。今後も国内外の動向を把握し、最先端のAIコンピューティングプラットフォームやデータセンターの構築に取り組んでいきたいと考えています。"
ソース ヤフー