エンタープライズ規模の AI に最適なトップクラスのパフォーマンス
GMI Cloud は、NVIDIA HGX™ B200 へのアクセスを提供し、大規模な AI と HPC ワークロードの加速を実現します。
最大 1.5TB(1 GPU あたり 192 GB × 8)のメモリを搭載し、FP8 および FP4 の精度をサポート。自然言語処理(NLP)、コンピュータビジョン、生成 AI の高度なモデルにおいて、より高速なトレーニングと推論が可能です。
NVIDIA Blackwell GPU の特長
高スループットなモデル開発のために設計された NVIDIA HGX B200 プラットフォームは、分散トレーニング、効率的なファインチューニング、大規模推論において卓越したパフォーマンスを発揮します。
第5世代の NVIDIA NVSwitch™ を搭載し、GPU 間の帯域幅は最大 1.8 TB/s、全体のインターコネクトは 14.4 TB/s を達成。複雑でメモリ依存のワークロードに対して、すべての GPU 間で同期された高速なメモリアクセスが可能です。
GMI Cloud の Cluster Engine を通じて、弾力的なマルチノードオーケストレーションにアクセス。大規模な AI パイプラインの迅速なスケーリング、障害の分離、リソースの最適化を実現します。
詳細については、NVIDIA HGX プラットフォーム概要をご参照ください。NVIDIA HGX Platform Overview.
GMI Cloud の強固なインフラストラクチャを通じて、NVIDIA の HGX B200 プラットフォームの最先端パフォーマンスを活用。企業の AI 課題に自信を持って取り組める環境を整えます。