料金プラン

AI イニシアチブの設計、展開、最適化、スケーリングのための包括的なソリューション

Reserved GPUs

As low as
$2.50 / GPU-hour
Contact Sales
Model
Fixed, committed capacity
Use Case
Production workloads, training pipelines
Commitment
Multi-month / year
Benefits
Guaranteed scale, stable cost
Fixed, committed capacity for production workloads
Long-term commitment (multi-month / yearly)
Guaranteed scale with stable, predictable cost
GPU availability
NVIDIA H200
NVIDIA GB200
NVIDIA B200

On-demand GPUs

Starting at
$4.39 / GPU-hour
Contact Sales
Model
Fixed, committed capacity
Use Case
Production workloads, training pipelines
Commitment
Multi-month / year
Benefits
Guaranteed scale, stable cost
Pay-as-you-go for fine-tuning and experimentation
Short-term flexibility (hourly / monthly)
Burstable capacity with maximum adaptability
GPU availability
NVIDIA H200
NVIDIA GB200
NVIDIA B200

Reserved GPUs

As low as
$2.50 / GPU-hour
Contact Sales
Model
Fixed, committed capacity
Use Case
Production workloads, training pipelines
Commitment
Multi-month / year
Benefits
Guaranteed scale, stable cost
Fixed, committed capacity for production workloads
Long-term commitment (multi-month / yearly)
Guaranteed scale with stable, predictable cost
GPU availability
NVIDIA H200
NVIDIA GB200
NVIDIA B200

On-demand GPUs

Starting at
$4.39 / GPU-hour
Contact Sales
Model
Fixed, committed capacity
Use Case
Production workloads, training pipelines
Commitment
Multi-month / year
Benefits
Guaranteed scale, stable cost
Pay-as-you-go for fine-tuning and experimentation
Short-term flexibility (hourly / monthly)
Burstable capacity with maximum adaptability
GPU availability
NVIDIA H200
NVIDIA GB200
NVIDIA B200
GPU クラウド料金
Supercharge your GPUs

NVIDIA H200

〜から
$2.50
/ GPU-hour
大規模なモデルとデータ処理に最適化された H200 は、超高速メモリ帯域幅により、トレーニングと推論をより迅速に実行します。
Supercharge your GPUs

NVIDIA H100

最安で
$2.10
/ GPU-hour
大規模モデルとデータ処理に特化した H100 は、卓越したスケーラビリティを備え、トレーニングと推論をより迅速に実行します。
Supercharge your GPUs

NVIDIA Blackwell Platforms

近日公開
予約注文
AI の未来を見据えて設計された Blackwell の B200 と GB200 は、大規模なトレーニングと推論をさらに高速化します。
GPU クラウドを強化する
Supercharge your GPUs

サービスレイヤー

Inference Engine

GMI Cloud の推論プラットフォームは、最小限のレイテンシーで LLM のデプロイとスケーリングを実現し、最大の効率を提供します。
今すぐ開始
Supercharge your GPUs

オーケストレーションレイヤー

Cluster Engine

Supercharge your GPUs
GMI Cloud のオーケストレーションプラットフォームは、大規模な GPU ワークロードの管理を、最大限の効率と信頼性で実現します。
今すぐ開始

どの製品が最適か分からない場合は、ご相談ください。

私たちのチームが最適なソリューションの選定をサポートし、ご質問にお答えします。
デモ予約

価格設定

オンデマンド GPU

開始時間

4.39ドル /GPU アワー
さあ、始めましょうContact Sales

GPU コンフィギュレーション:

8 × NVIDIA H100

CPU コア

2 x インテル 48 コア

メモリー

2TB

システムディスク

2 x 960GB NVMe SSD

データディスク

8 x 7.6 TB NVMe SSD

GPU コンピュートネットワーク

InfiniBand 400 Gb/s/GPU

イーサネットネットワーク

100 ギガバイト/秒

その他の機能

クラスターエンジン
アプリケーションプラットフォーム
従量課金制
リザーブ容量
ボリュームベースの価格設定

プライベートクラウド

最低でも

2.50ドル /GPU アワー
さあ、始めましょうContact Sales

GPU コンフィギュレーション

8 x NVIDIA H100

CPU コア

2 x インテル 48 コア

メモリー

2TB

システムディスク

2 x 960GB NVMe SSD

データディスク

8 x 7.6 TB NVMe SSD

GPU コンピュートネットワーク

InfiniBand 400 Gb/s/GPU

イーサネットネットワーク:

100 ギガバイト/秒

その他の機能

クラスターエンジン
アプリケーションプラットフォーム
従量課金制
リザーブ容量
ボリュームベースの価格設定

よくある質問

すぐに答えが見つかる FAQ

どのような GPU を提供していますか?

NVIDIA H100 GPU(80 GB VRAM搭載)を提供しており、高性能な AI 処理やハイパフォーマンスコンピューティングに対応しています。詳細は料金ページをご覧ください。

分散学習のための GPU クラスターとネットワーク管理について

NVIDIA NVLink と InfiniBand ネットワークを活用し、高速・低遅延な GPU クラスター計算を実現。Horovod や NCCL などのフレームワークをサポートし、分散学習をスムーズに展開。詳細はGPU リソースサービスをご確認ください。

対応フレームワークと環境のカスタマイズについて

TensorFlow、PyTorch、Keras、Caffe、MXNet、ONNX に対応。高度なカスタマイズ環境も提供し、pip や conda でセットアップ可能です。

GPU の料金体系と最適化オプションについて

オンデマンドと Reserved プランを用意し、自動スケーリング機能でコストと効率を最適化。詳細は料金プランページをご参照ください。