Powered by NVIDIA
NVIDIA Preferred Partner

讓 AI 真正走向落地與規模化,整合 Serverless 彈性與專屬 GPU 基礎架構,全面兼顧效能、成本與掌控力

前往平台
Higgsfield
Utopai
HeyGen
Eigen AI
Higgsfield
Utopai
HeyGen
Eigen AI

先用無伺服器 (Serveless) 推理上線,再隨需求無縫擴展.

透過無伺服器 (Serveless) 推理快速啟動 AI 模型,並隨工作負載成長,無縫擴展至專屬 GPU 基礎架構。

前往平台

無流量自動歸零,不為閒置資源付費

內建批次處理與低延遲排程優化

為 LLM 與多模態模型提供可直接部署的推理 API

多租戶隔離架構,提供穩定且可預期的效能

超越 Serverless,進入真正可控的 AI 基礎架構

基於 NVIDIA Reference Platform Cloud Architecture 與驗證設計打造,兼顧高效能、高可靠性與可擴展性。

探索 GPU 基礎架構

專屬 Bare Metal GPU 資源,提供穩定且可預期的效能表現。

透過 Cluster Engine,在基礎架構層高效編排多節點叢集

當部署需要更高掌控度時,提供 Root 權限與客製化技術堆疊

GPU 租賃定價

透明 GPU 定價,專為可規模化 AI 部署而生。

查看 GPU 租賃定價

NVIDIA H100

$2.00USD /GPU-hour

適合執行高記憶體需求與大型模型的訓練與推理任務

立即可用

NVIDIA H200

$2.60USD /GPU-hour

為大規模訓練與推理而生,效能、穩定與生態一次到位

立即可用

NVIDIA Blackwell

預購

適合需要大規模部署與更高效能彈性的團隊

即將推出

規模化 AI 在 GMI Cloud 上表現更出色

在各類規模化 AI 應用中獲得實際效能提升

3.7x

更高吞吐量

5.1x

更高效推理

30%

更低推理成本

2.3x

流量尖峰高速擴展

基於真實規模化推理流量測試,包括即時與批次工作負載,並採用相同模型配置。

以推理為核心而生

推理預設即為 Serverless,從流量調度、自動擴展到成本優化,全都自動完成,並支援 Scale to Zero。

預設即為 Serverless

推理預設採用 Serverless 運行模式,自動完成擴展、批次處理與成本導向排程。

規模化下的穩定效能

透過支援 RDMA 的專屬 GPU 叢集網路架構,即使在長時間高負載下,也能穩定維持高吞吐表現。

為靈活擴展而打造

從 API 推理一路擴展到完整 GPU 叢集,無需重構既有架構。

常見問題與技術支援

快速解決您的疑問:從技術細節到帳務方案,全面支援。

部署更快,推理更穩,擴展更輕鬆。

前往平台