投資人高度評價

「GMI Cloud 正在實現願景,未來將在雲端基礎建設領域佔據領導地位。」

Alec Hartman
Digital Ocean 共同創辦人

「GMI Cloud 能夠完美連結亞洲與美國市場,充分體現我們『放眼全球』的理念。憑藉 Alex 在市場上獨特的經驗和人脈,他真正了解如何擴展半導體基礎設施的營運,使其發展潛力無限。」

Akio Tanaka
Headline 合夥人

「GMI 雲端在行業中真正脫穎而出。它們的無縫 GPU 存取和全堆疊 AI 產品,大大提升了我們在 UbiOps 的 AI 功能。」

Bart Schneider
UbiOps 執行長

常見問題

提供哪些類型的 GPU ?

我們不僅提供 NVIDIA H100 GPU,配備 80 GB VRAM 及高效能算力,可應用於各類 AI 與高效能運算工作負載;同時也提供 NVIDIA H200 GPU,作為首款搭載 HBM3e 技術的 GPU,H200 擁有更大且更快速的記憶體,可加速大型語言模型 (LLM) 的開發,並在 HPC 工作負載的科學運算中實現重大突破。查看 H100 報價H200 報價了解更多詳情!

What types of GPUs do you offer?

We offer NVIDIA H100 GPUs with 80 GB VRAM and high compute capabilities for various AI and HPC workloads. Discover more details at pricing page.

快速取得常見問題的解答

如何管理 GPU 叢集和網路以進行分散式訓練?

We use NVIDIA NVLink and InfiniBand networking to enable high-speed, low-latency GPU clustering, supporting frameworks like Horovod and NCCL for seamless distributed training. Learn more at gpu-instances.

支援哪些軟體和深度學習框架?可以客製化嗎?

我們支援 TensorFlow、PyTorch、Keras、Caffe、MXNet 和 ONNX,並提供高度客製化的環境,可透過 pip 和 conda 進行設定。

GPU 的價格方案如何?有提供成本最佳化功能嗎?

我們的定價包括 On-demand、Reserved 兩種方案,並具有自動擴充選項,以最佳化成本和效能。詳情請查看價格方案