
為企業 AI 打造的 NVIDIA GPU 基礎架構
在 NVIDIA H100、H200、Blackwell 與 Vera Rubin 平台上部署 AI 訓練與高效能推理,支援從即時推理到大規模模型訓練的可擴展基礎架構。
支援裸金屬伺服器與容器化部署
完整掌控 GPU 叢集與執行環境
可在 GMI Cloud 平台與私有環境之間彈性擴展

可投入規模化部署的 NVIDIA GPU
在 GMI Cloud 營運的資料中心內,於專屬 NVIDIA GPU 平台上部署與執行規模化 AI 工作負載,針對穩定效能與高吞吐需求最佳化。

NVIDIA H100 GPU
兼顧 AI 訓練與規模化推理的均衡效能
針對多用途 AI 工作負載最佳化
在持續高流量下維持穩定延遲
適合規模化 LLM 與多模態推理部署

NVIDIA H200 GPU
專為大規模 LLM 工作負載打造的高記憶體 GPU
更大記憶體容量,適合長上下文模型
針對大批次推理最佳化
可穩定支援規模化部署

NVIDIA B200 GPU
專為高密度 AI 叢集打造的新一代 NVIDIA 架構
為新一代訓練與推理打造
更高每瓦效能
適合分散式叢集部署

NVIDIA GB200 NVL72
適合多 GPU 分散式 AI 系統
高頻寬互連,適合叢集型 AI 工作負載
適合前沿 AI 模型訓練與進階推理

NVIDIA GB300 NVL72
適合長上下文與高參數模型訓練
專為新一代多節點 AI 叢集打造
適合大規模推理與高密度 AI 系統部署
選擇最適合的 GPU 叢集架構
容器化 (Container) GPU 環境
透過針對 GPU 最佳化的容器環境,快速部署具彈性的 AI 工作負載
適用場景
快速原型開發與模型驗證
彈性推理工作負載
內部 AI 服務與資料處理流程
關鍵優勢
快速啟動
彈性擴展
基於 Kubernetes 的 GPU 執行環境
裸金屬 (Bare Mental) GPU
專屬實體伺服器部署,提供最高效能、完整掌控與穩定可預期的 GPU 資源。
適用場景
大規模模型訓練與微調
長時間、高使用率 GPU 工作負載
對效能要求極高的 AI 推理
關鍵優勢
完整 root 權限與硬體層控制
隔離式、可預期的 GPU 效能
隨需啟用與快速部署
企業級網路與 SLA 服務保障
值得信賴的企業級 GPU 基礎架構
支援 BYOS 與雲原生部署模式,無論部署架構如何,都能提供一致效能、企業級安全性與穩定的營運保障。
橫跨美國、APAC 與歐洲的多區域部署
支援 RDMA 的高效能網路架構
隔離式 VPC 網路與企業級安全性
SLA 支援的服務交付
最新世代 GPU 平台
一個平台,打造多種 AI 基礎架構模式
Cluster Engine 可作為獨立的 GPU 基礎架構平台使用,也可作為 GMI Cloud 推理與訓練服務的底層核心,讓團隊在同一平台上持續擴展 AI 基礎設施。
探索推理引擎常見問題與技術支援
快速解決您的疑問:從技術細節到帳務方案,全面支援。
