NVIDIA HGX™ B200 のパワーを解き放つ

エンタープライズ規模の AI に最適なトップクラスのパフォーマンス

次世代の AI コンピューティング

GMI Cloud は、NVIDIA HGX™ B200 へのアクセスを提供し、大規模な AI と HPC ワークロードの加速を実現します。

最大 1.5TB(1 GPU あたり 192 GB × 8)のメモリを搭載し、FP8 および FP4 の精度をサポート。自然言語処理(NLP)、コンピュータビジョン、生成 AI の高度なモデルにおいて、より高速なトレーニングと推論が可能です。

NVIDIA Blackwell GPU の特長

  • AI に最適化されたパフォーマンス

    高スループットなモデル開発のために設計された NVIDIA HGX B200 プラットフォームは、分散トレーニング、効率的なファインチューニング、大規模推論において卓越したパフォーマンスを発揮します。

  • 高速アーキテクチャ

    第5世代の NVIDIA NVSwitch™ を搭載し、GPU 間の帯域幅は最大 1.8 TB/s、全体のインターコネクトは 14.4 TB/s を達成。複雑でメモリ依存のワークロードに対して、すべての GPU 間で同期された高速なメモリアクセスが可能です。

  • シームレスなスケーラビリティ

    GMI Cloud の Cluster Engine を通じて、弾力的なマルチノードオーケストレーションにアクセス。大規模な AI パイプラインの迅速なスケーリング、障害の分離、リソースの最適化を実現します。

詳細については、NVIDIA HGX プラットフォーム概要をご参照ください。NVIDIA HGX Platform Overview.

GMI Cloud と NVIDIA HGX B200 で AI 能力を引き上げる

GMI Cloud の強固なインフラストラクチャを通じて、NVIDIA の HGX B200 プラットフォームの最先端パフォーマンスを活用。企業の AI 課題に自信を持って取り組める環境を整えます。

お問い合わせ

詳細については、当社のチームにお問い合わせください