Powered by NVIDIA
NVIDIA Preferred Partner

エンタープライズAI向けNVIDIA GPUインフラ

NVIDIA H100、H200、BlackwellおよびVera Rubinプラットフォームで、AIトレーニングと高パフォーマンス推論を実行。オンデマンドまたはリザーブドキャパシティプランで利用可能。

コンソールで始める

ベアメタルサーバーとコンテナプラットフォームを実行

フルルートコントロールでGPUクラスターをデプロイ

GMI Cloudまたはプライベートインフラ全体でスケール

本番対応NVIDIA GPU

GMI運営のデータセンター内の専用NVIDIA GPUプラットフォームで、本番AIワークロードのトレーニングと実行を行います。 予測可能なパフォーマンスと持続的なスループットに最適化。

NVIDIA H100 GPU
提供中

NVIDIA H100 GPU

from $2.00/GPU-hour

AIトレーニングと本番推論のバランスの取れたパフォーマンス。

多目的AIワークロードに最適化

持続的なトラフィック下での安定したレイテンシ

スケーラブルなLLMおよびマルチモーダル推論に最適

NVIDIA H200 GPU
提供中

NVIDIA H200 GPU

from $2.60/GPU-hour

大規模LLMワークロード向けの大容量メモリGPU。

ロングコンテキストモデル向けの拡張メモリ

大規模バッチ推論向けに設計

本番規模デプロイの信頼性

NVIDIA B200 GPU
数量限定

NVIDIA B200 GPU

from $4.00/GPU-hour

高密度AIクラスター向けの次世代NVIDIAアーキテクチャ。

次世代トレーニングと推論のために構築

ワットあたりのパフォーマンス向上

分散クラスターデプロイに最適

NVIDIA GB200 NVL72
提供中

NVIDIA GB200 NVL72

from $8.00/GPU-hour

最適な用途:マルチGPU分散AIシステム

本番適合:クラスターワークロード向け高帯域幅インターコネクト

理想的なワークロード:フロンティアモデルトレーニングと先進推論

NVIDIA GB300 NVL72
提供中

NVIDIA GB300 NVL72

先行予約/GPU-hour

最適な用途:ロングコンテキストと大容量モデルトレーニング

本番適合:次世代マルチノードクラスター向けに構築

理想的なワークロード:大規模推論と高密度AIシステム

料金を見る

適切なクラスターアーキテクチャを選択

コンテナサービス

GPU最適化コンテナ環境で高速でエラスティックなAIワークロードをデプロイ。

最適な用途

迅速なプロトタイピングと実験

エラスティック推論ワークロード

社内AIサービスとパイプライン

主な価値

高速起動

エラスティックスケーリング

KubernetesベースのGPU環境

ベアメタルGPU

最大のパフォーマンスと制御のための専用物理サーバー。

最適な用途

大規模モデルトレーニングとファインチューニング

長時間実行の高使用率GPUワークロード

パフォーマンスクリティカルな推論

主な価値

フルルートアクセスとハードウェアレベルの制御

予測可能で分離されたGPUパフォーマンス

オンデマンドプロビジョニング

エンタープライズネットワーキングとSLA保証の提供

早期アクセス

マネージドGPUクラスター

分散トレーニングと大規模推論のためのフルマネージドマルチノードGPUクラスター。

最適な用途

エンタープライズAI・MLチーム

分散マルチノードトレーニング

既存GPUクラスターを持つ組織

主な価値

一元化されたクラスターライフサイクル管理

環境全体での統一管理体験

GMI CloudとBYOS環境の両方でマネージドクラスターをサポート

信頼できるエンタープライズインフラ

BYOS(Bring Your Own Service)およびクラウドネイティブデプロイ向けに構築。一貫したパフォーマンス、セキュリティ、運用保証を提供。

米国、APAC、EUにまたがるマルチリージョンデプロイ

高スループットワークロード向けRDMA対応ネットワーキング

分離されたVPCネットワーキングとエンタープライズグレードのセキュリティ

SLA保証のサービス提供

最新世代のGPUプラットフォーム

ひとつのプラットフォーム、複数の構築方法

クラスターエンジンはスタンドアロンのGPUインフラプラットフォームとしても、GMI CloudのAI推論・トレーニングサービスの基盤としても利用でき、チームはプラットフォームを変更することなくAIスタックを進化させられます。

推論エンジンを探索

一流のAIチームに選ばれる信頼

Trend MicroはGMI CloudのGPUクラスターを活用し、Oracle Cloud上で運用していたAI集約型ワークロードをよりコスト効率の高いインフラ基盤に移行しました。

  • コストの高いOracle GPUインフラを置き換え
  • H100およびH200 GPU容量を活用中
  • GPU集約型ワークロードへの適合性が向上
  • GB300に向けた将来のハードウェアロードマップ

Mirelo AIはGMI Cloudの専用GPUインフラを活用し、低コスト・高速なイテレーション・柔軟な商業条件のもとで基盤モデルのトレーニングを行っています。

  • トレーニングコストを40%削減
  • トレーニング時間を20%短縮
  • 代替手段と比較してコストを10〜15%削減
  • 柔軟なレントトゥーオウン契約形態

Magna AIはGMI Cloudと連携し、管理された環境向けに設計されたインフラを活用して、ソブリンAIおよび政府向けのデプロイシナリオを支援しています。

  • 政府向けソブリンAIユースケース
  • CE + IEデプロイメントモデル
  • 顧客所有モデルのサポート
  • 協議中の将来対応ハードウェアロードマップ

よくある質問

サービスに関してよく寄せられるご質問とその回答をご紹介します。

スケーラブルなGPUインフラでAIを実行する準備はできましたか?

コンソールで始める