定價

全面優化訓練與推論效能,助您加速 AI 部署

Reserved GPUs

As low as
$2.50 / GPU-hour
Contact Sales
Model
Fixed, committed capacity
Use Case
Production workloads, training pipelines
Commitment
Multi-month / year
Benefits
Guaranteed scale, stable cost
Fixed, committed capacity for production workloads
Long-term commitment (multi-month / yearly)
Guaranteed scale with stable, predictable cost
GPU availability
NVIDIA H200
NVIDIA GB200
NVIDIA B200

On-demand GPUs

Starting at
$4.39 / GPU-hour
Contact Sales
Model
Fixed, committed capacity
Use Case
Production workloads, training pipelines
Commitment
Multi-month / year
Benefits
Guaranteed scale, stable cost
Pay-as-you-go for fine-tuning and experimentation
Short-term flexibility (hourly / monthly)
Burstable capacity with maximum adaptability
GPU availability
NVIDIA H200
NVIDIA GB200
NVIDIA B200

Reserved GPUs

As low as
$2.50 / GPU-hour
Contact Sales
Model
Fixed, committed capacity
Use Case
Production workloads, training pipelines
Commitment
Multi-month / year
Benefits
Guaranteed scale, stable cost
Fixed, committed capacity for production workloads
Long-term commitment (multi-month / yearly)
Guaranteed scale with stable, predictable cost
GPU availability
NVIDIA H200
NVIDIA GB200
NVIDIA B200

On-demand GPUs

Starting at
$4.39 / GPU-hour
Contact Sales
Model
Fixed, committed capacity
Use Case
Production workloads, training pipelines
Commitment
Multi-month / year
Benefits
Guaranteed scale, stable cost
Pay-as-you-go for fine-tuning and experimentation
Short-term flexibility (hourly / monthly)
Burstable capacity with maximum adaptability
GPU availability
NVIDIA H200
NVIDIA GB200
NVIDIA B200
產品 / 解決方案定價
Supercharge your GPUs

NVIDIA H200

每小時起
$2.50
/ GPU-hour
專為大型模型與資料處理優化,H200 提供極速訓練與推論,搭載超高記憶體頻寬,無縫應對高運算需求。
Supercharge your GPUs

NVIDIA H100

每小時低至
$2.10
/ GPU-hour
Engineered for large models and data, the H100 delivers faster training and inference with unmatched scalability
Supercharge your GPUs

NVIDIA Blackwell Platforms

即將推出
搶先預訂
Blackwell B200 與 GB200,專為未來 AI 而生,提供更快速的訓練與大規模推論處理,開啟全新 AI 運算時代。
強化您的 GPU 雲端運算 - 打破效能瓶頸,全面加速 AI 訓練與推論。
Supercharge your GPUs

Serving Layer

推論引擎 Inference Engine

GMI Cloud 的推論平台,專為部署與擴展大型語言模型 (LLMs) 而設計,實現極低延遲與最大效能。
立即體驗
Supercharge your GPUs

Orchestration Layer

叢集引擎 Cluster Engine

Supercharge your GPUs
GMI Cloud 的調度平台,專注於大規模 GPU 工作負載管理,確保運算效率與穩定可靠的執行。
聯繫銷售

不確定哪個產品最適合您?我們來幫您找答案!

GMI Cloud 的專業團隊隨時為您提供建議,協助您挑選最合適的解決方案,並解答您所有的疑問。
聯繫銷售

方案與價格

On-demand GPU 方案

起價

4.39 美元 / GPU 小時
立即開始使用聯繫專家聯繫專家

GPU 配置:

8 × NVIDIA H100

處理器核心

雙 Intel 48 核心處理器

記憶體

2 TB

系統磁碟

2 x 960 GB NVMe SSD

資料磁碟

8 x 7.6TB NVMe SSD

GPU 運算網路

InfiniBand 400GB/s/GPU

乙太網路

100 GB/s

其他功能

Cluster Engine
AI 應用開發平台
按用量付費
保留容量
以數量為基礎的定價

Reserve GPU 方案

低至

2.50 美元 / GPU 小時
立即開始使用聯繫專家聯繫專家

GPU 配置

8 x NVIDIA H100

處理器核心

雙 Intel 48 核心處理器

記憶體

2 TB

系統磁碟

2 x 960 GB NVMe SSD

資料磁碟

8 x 7.6TB NVMe SSD

GPU 運算網路

InfiniBand 400GB/s/GPU

乙太網路:

100 GB/s

其他功能

Cluster Engine
AI 應用開發平台
按用量付費
保留容量
大量訂購享優惠

常見問題

快速取得常見問題的解答

提供哪些類型的 GPU ?

我們不僅提供 NVIDIA H100 GPU,配備 80 GB VRAM 及高效能算力,可應用於各類 AI 與高效能運算工作負載;同時也提供 NVIDIA H200 GPU,作為首款搭載 HBM3e 技術的 GPU,H200 擁有更大且更快速的記憶體,可加速大型語言模型 (LLM) 的開發,並在 HPC 工作負載的科學運算中實現重大突破。查看 H100 報價H200 報價了解更多詳情!

如何管理 GPU 叢集和網路以進行分散式訓練?

我們使用 NVIDIA NVLink 和 InfiniBand 網路來實現高速、低延遲的 GPU 叢集運算,並支援 Horovod 和 NCCL 等架構,使分散式訓練更加順暢。了解更多請參考 GPU 算力服務

支援哪些軟體和深度學習框架?可以客製化嗎?

我們支援 TensorFlow、PyTorch、Keras、Caffe、MXNet 和 ONNX,並提供高度客製化的環境,可透過 pip 和 conda 進行設定。

GPU 的價格方案如何?有提供成本最佳化功能嗎?

我們的定價包括 On-demand、Reserved 兩種方案,並具有自動擴充選項,以最佳化成本和效能。詳情請查看價格方案