NVIDIAは、AIプラットフォーム「NVIDIA DGX Cloud Lepton」の拡張を発表しました。このプラットフォームは、エージェントベースおよび物理的なAIアプリケーションを構築する開発者をつなぐグローバル・コンピューティング・マーケットプレイスを特徴としており、拡大するクラウド・プロバイダーのネットワークからGPUを利用できるようにします。
Mistral AI、Nebius、Nscale、Fluidstack、Hydra Host、ScalewayおよびTogether AIは、NVIDIA Blackwellおよびその他のNVIDIAアーキテクチャGPUを市場で提供し、ハイパフォーマンス・コンピューティングへの地域的アクセスを拡大しています。AWSとMicrosoft Azureは、DGX Cloud Leptonに参加する最初の主要クラウドプロバイダーです。CoreWeave、Crusoe、Firmus、Foxconn、GMI Cloud、Lambda、Yotta Data Servicesがマーケットプレイスに加わりました。
世界のAIコミュニティにとって加速コンピューティングをより身近なものにするために、Hugging FaceはTraining Cluster as a Serviceを導入します。この新しいサービスはDGX Cloud Leptonと統合されており、AI研究者や基礎モデルを構築する開発者をNVIDIAコンピューティング・エコシステムにシームレスに接続します。
こちらもお読みください: インサイトエッジ、LLMを使用した文書分析ライブラリを開発
NVIDIAは、欧州の大手ベンチャーキャピタルであるAccel、Elaia、Partech、およびSofinnova Partnersと協力し、DGX Cloud Lepton Marketplaceクレジットをポートフォリオ企業に提供することで、新興企業が加速されたコンピューティングリソースにアクセスし、同地域での開発を拡大できるよう支援します。
「DGX Cloud Leptonは、ヨーロッパの開発者をグローバルなAIインフラにつなぎます。「地域のパートナーと協力することで、開発者、研究者、企業が地域のイノベーションをグローバルな成長に拡大できるAI工場のネットワークを構築しています。
DGX Cloud Leptonは、NVIDIAのコンピューティングエコシステム全体からクラウドAIサービスとGPUリソースを単一のプラットフォームに統合し、特定のリージョン内で信頼性の高い高性能GPUリソースにアクセスするプロセスを簡素化します。
さらに、NVIDIA NIM™およびNeMo™マイクロサービスおよび エヌビディア クラウドファンクション、DGX Cloud Leptonは、AIアプリケーションの開発とデプロイのあらゆる段階を合理化し、スケールアップを加速します。このマーケットプレイスは、ユニバーサルNIMマイクロサービスと連携し、最も人気のあるオープンLLMアーキテクチャや、Hugging Face上で公開・非公開にホストされている100万以上のモデルを含む、幅広い大規模言語モデルをサポートします。
クラウドプロバイダー向けに、DGX Cloud Leptonには、GPUの健全性をリアルタイムで継続的に監視し、根本原因の分析を自動化する管理ソフトウェアが含まれています。
ソース PRタイムズ