GPT 模型自太平洋時間 3 月 31 日起享 9 折優惠。立即試用!

Powered by NVIDIA
NVIDIA Preferred Partner

為企業 AI 打造的 NVIDIA GPU 基礎架構

在 NVIDIA H100、H200、Blackwell 與 Vera Rubin 平台上部署 AI 訓練與高效能推理,支援從即時推理到大規模模型訓練的可擴展基礎架構。

前往平台

支援裸金屬伺服器與容器化部署

完整掌控 GPU 叢集與執行環境

可在 GMI Cloud 平台與私有環境之間彈性擴展

可投入規模化部署的 NVIDIA GPU

在 GMI Cloud 營運的資料中心內,於專屬 NVIDIA GPU 平台上部署與執行規模化 AI 工作負載,針對穩定效能與高吞吐需求最佳化。

NVIDIA H100 GPU
立即可用

NVIDIA H100 GPU

$2.00 USD 起/GPU-每小時

兼顧 AI 訓練與規模化推理的均衡效能

針對多用途 AI 工作負載最佳化

在持續高流量下維持穩定延遲

適合規模化 LLM 與多模態推理部署

NVIDIA H200 GPU
立即可用

NVIDIA H200 GPU

$2.60 USD 起/GPU-每小時

專為大規模 LLM 工作負載打造的高記憶體 GPU

更大記憶體容量,適合長上下文模型

針對大批次推理最佳化

可穩定支援規模化部署

NVIDIA B200 GPU
限量開放

NVIDIA B200 GPU

$4.00 USD 起/GPU-每小時

專為高密度 AI 叢集打造的新一代 NVIDIA 架構

為新一代訓練與推理打造

更高每瓦效能

適合分散式叢集部署

NVIDIA GB200 NVL72
立即可用

NVIDIA GB200 NVL72

$8.00 USD 起/GPU-每小時

適合多 GPU 分散式 AI 系統

高頻寬互連,適合叢集型 AI 工作負載

適合前沿 AI 模型訓練與進階推理

NVIDIA GB300 NVL72
立即可用

NVIDIA GB300 NVL72

預購/GPU-每小時

適合長上下文與高參數模型訓練

專為新一代多節點 AI 叢集打造

適合大規模推理與高密度 AI 系統部署

查看價格

選擇最適合的 GPU 叢集架構

容器化 (Container) GPU 環境

透過針對 GPU 最佳化的容器環境,快速部署具彈性的 AI 工作負載

適用場景

快速原型開發與模型驗證

彈性推理工作負載

內部 AI 服務與資料處理流程

關鍵優勢

快速啟動

彈性擴展

基於 Kubernetes 的 GPU 執行環境

裸金屬 (Bare Mental) GPU

專屬實體伺服器部署,提供最高效能、完整掌控與穩定可預期的 GPU 資源。

適用場景

大規模模型訓練與微調

長時間、高使用率 GPU 工作負載

對效能要求極高的 AI 推理

關鍵優勢

完整 root 權限與硬體層控制

隔離式、可預期的 GPU 效能

隨需啟用與快速部署

企業級網路與 SLA 服務保障

搶先體驗

託管 GPU 叢集

提供全託管的多節點 GPU 叢集,支援分散式訓練與大規模推理,降低基礎設施維運負擔。

適用場景

企業 AI 與 ML (機器學習) 團隊

分散式與多節點訓練

已具備 GPU 叢集的組織

關鍵優勢

集中式叢集生命週期管理

跨環境一致的管理體驗

支援 GMI Cloud 與 BYOS 環境的託管叢集部署

值得信賴的企業級 GPU 基礎架構

支援 BYOS 與雲原生部署模式,無論部署架構如何,都能提供一致效能、企業級安全性與穩定的營運保障。

橫跨美國、APAC 與歐洲的多區域部署

支援 RDMA 的高效能網路架構

隔離式 VPC 網路與企業級安全性

SLA 支援的服務交付

最新世代 GPU 平台

一個平台,打造多種 AI 基礎架構模式

Cluster Engine 可作為獨立的 GPU 基礎架構平台使用,也可作為 GMI Cloud 推理與訓練服務的底層核心,讓團隊在同一平台上持續擴展 AI 基礎設施。

探索推理引擎

常見問題與技術支援

快速解決您的疑問:從技術細節到帳務方案,全面支援。

讓 AI 跑在可彈性擴展的 GPU 基礎架構上

前往平台