エンタープライズ規模の AI に最適なトップクラスのパフォーマンス

GMI Cloud は、NVIDIA HGX™ B200 へのアクセスを提供し、大規模な AI と HPC ワークロードの加速を実現します。
最大 1.5TB(1 GPU あたり 192 GB × 8)のメモリを搭載し、FP8 および FP4 の精度をサポート。自然言語処理(NLP)、コンピュータビジョン、生成 AI の高度なモデルにおいて、より高速なトレーニングと推論が可能です。
NVIDIA Blackwell GPU の特長
高スループットなモデル開発のために設計された NVIDIA HGX B200 プラットフォームは、分散トレーニング、効率的なファインチューニング、大規模推論において卓越したパフォーマンスを発揮します。
第5世代の NVIDIA NVSwitch™ を搭載し、GPU 間の帯域幅は最大 1.8 TB/s、全体のインターコネクトは 14.4 TB/s を達成。複雑でメモリ依存のワークロードに対して、すべての GPU 間で同期された高速なメモリアクセスが可能です。
GMI Cloud の Cluster Engine を通じて、弾力的なマルチノードオーケストレーションにアクセス。大規模な AI パイプラインの迅速なスケーリング、障害の分離、リソースの最適化を実現します。GMI Cloud Cluster Engine—enabling rapid scaling, fault isolation, and optimized resource utilization for large-scale AI pipelines.
詳細については、NVIDIA HGX プラットフォーム概要をご参照ください。NVIDIA HGX Platform Overview.
Leverage the cutting-edge performance of the NVIDIA HGX B200 through GMI Cloud’s robust, enterprise-grade infrastructure. Empower your team to tackle even the most demanding AI workloads with confidence and scale.
すぐに答えが見つかる FAQ