マイクロンテクノロジー株式会社(本社:東京都港区、代表取締役社長:劉克振、以下「マイクロン」)は、同社の12層HBM3E 36GB製品が、AMD社の次世代ソリューションAMD Instinct™ MI350シリーズに採用されたことを発表しました。この協業は、大規模なAIモデルのトレーニングにおける電力効率と性能の向上において重要な役割を果たし、高スループットの推論、データ処理、計算モデリングなどの複雑なHPCワークロードを可能にします。さらに、今回の発表は、マイクロンのHBM業界におけるリーダーシップの重要なマイルストーンであり、マイクロンの卓越した実行力と強力な顧客関係の価値を体現するものです。
マイクロンの12レイヤーHBM3E 36GBソリューションは、AMD Instinct™ MI350シリーズGPUプラットフォームに業界をリードするメモリー技術を提供し、優れた帯域幅と低消費電力を実現します*1。AMDの先進的なCDNA 4アーキテクチャに基づくAMD Instinct MI350シリーズGPUプラットフォームは、288GBの高帯域幅HBM3Eメモリーを統合し、最大8TB/秒の帯域幅で優れたスループットを実現します。この大容量メモリーにより、Instinct MI350シリーズGPUは、1つのGPUで最大5200億のパラメーターを持つAIモデルを効率的に処理することができます。さらに、フルプラットフォーム構成では、最大2.3TB(テラバイト)のHBM3Eメモリを搭載し、FP4精度で最大161PFLOPSの理論ピーク性能を達成し、高密度AIワークロードに高い電力効率とスケーラビリティを提供します。この高度に統合されたアーキテクチャとマイクロンの電力効率に優れたHBM3Eを組み合わせることで、大規模な言語モデルのトレーニング、推論、科学的・工学的シミュレーションにおいて優れたスループットを実現し、データセンターは弾力的なスケーラビリティを提供しながら、ワットあたりのコンピュート性能を最大化することができます。マイクロンとAMDの協業により、AIソリューションの市場投入までの時間が短縮されます。
「マイクロンのクラウドメモリ製品担当バイスプレジデント兼ジェネラルマネージャーであるプラヴィーン・ヴァイディヤナサンは、次のように述べています。「AMDとの緊密な連携と共同エンジニアリングの取り組みにより、マイクロンの12層HBM3E 36GB製品は、AMDのInstinct MI350シリーズGPUおよびプラットフォームとの高い互換性を確保しています。「マイクロンのHBM3Eにおける業界をリードする技術革新は、要求の厳しいAIシステムに高い性能を提供するだけでなく、エンドユーザーにとってもTCO削減のメリットをもたらします。
こちらもお読みください: GNext、Eleveight AIとGPUクラウド開発で提携
「マイクロンの12層HBM3E 36GB製品は、当社のAMD Instinct™ MI350シリーズ・アクセラレータの性能と電力効率を最大化する上で重要な役割を果たしています。「マイクロンとの継続的な協業により、低消費電力で広帯域幅のメモリがさらに進化し、より大規模なAIモデルのトレーニング、推論の高速化、複雑なHPCワークロードを可能にします。
マイクロンの12層HBM3E 36GB製品は、複数の主要AIプラットフォームで認定されています。
ソース PRタイムズ