GMI 雲端在 NVIDIA GTC 2025 上發揮了巨大的影響,展示了人工智慧基礎架構和推論解決方案的尖端進步。通過兩場引人入勝的講座和 GMI 雲端推論引擎的官方公佈,我們強化了我們對大規模提供高性能、具成本效益的 AI 解決方案的承諾。
GMI 雲端的 GTC 2025 講座:關鍵結果
英皇之手:利用 GMI 雲端加速人工智慧創新

講者:GMI 雲創始人兼首席執行官葉亞歷克斯
本次會議探討 AI 項目如何從概念證明轉向市場主導地位。主要提示包括:
- 掌握完整的 AI 生命週期 — AI 成功不僅僅是訓練模型,而且還涉及最佳化推論、順暢擴展和快速迭代。專注於全堆疊優化的公司贏得比賽。
- 獲得戰略硬體優勢 — 早期存取先進的 NVIDIA GPU,藉由縮短訓練時間,並在競爭對手中取得下一代型號功能,為企業帶來關鍵的市場優勢。
- 解鎖全堆疊效率 — 控制硬體和軟體堆疊可讓 AI 模型更有效率和成本效益地運行,從而消除雲端部署中常見的瓶頸。
- AI 市場領導地位的實際步驟 — 為希望從研究和開發轉換為主導行業的 AI 驅動產品的企業的路線圖。

AI 時間與人類時間:為什麼成為先驅者很重要

講者:錢玉英,GMI 雲端工程副總裁
速度是 AI 創新的決定因素。這次講座重點介紹為什麼 AI 公司必須快速迭代以維持競爭優勢。主要見解包括:
- 數位化工作流程和特定領域微調 — 預先訓練的模型通常缺乏專門使用案例所需的精細性。強大的資料管道結合專有資料集的持續微調,確保 AI 代理程式適應網域特定需求,同時保持高準確性和效率。
- 動態資源分配和分散式推論 — 高效的 AI 開發需要 GPU/TPU 的自適應協調。雖然 FSDP、張力/模型平行性等技術都是眾所周知,但真正的挑戰在於知道何時應該訓練,何時以及如何將資源轉向推論以達到最佳利用。
- 數據管道自動化和擴展 — 具有功能存放區和合成數據生成的即時、可擴展的 ETL 管道確保持續高質量的資料擷取,減少訓練漂移並改善模型一般化。隨著 RAG 成為現代 AI 堆疊的重要組成部分,因此有效地構建這些管道是至關重要的,但通常被忽略。
- 模型最佳化和高效部署 — 量化感知訓練、知識蒸餾以及低位元精度格式等技術可優化邊緣和雲端部署的推論效率,從而平衡效能與成本。
- 適用於機器學習 (MLOP) 的強大的 CI/CD- 自動化模型再培訓、版本控制和回復機制(通過 GitOps、MLFlow 或 Kubeflow)確保快速迭代,同時保持可重複性和可靠性。
「公司在低效率的推論上浪費數百萬。我們通過優化從硬件到部署的所有內容來解決了這個問題。」 — 錢玉晶,工程副總裁

除了思想領導力之外,我們為 GTC 帶來了真正的創新,正式推出了我們的下一代推論引擎。專為速度、規模和效率而打造,這是 AI 推論的未來。
GMI 雲推論引擎:AI 推論的未來從這裡開始
GMI 雲很高興宣布其可用性 推論引擎,旨在以前所未有的規模提供低延遲、高輸送量的 AI 模型部署。專為運用最新的 NVIDIA GPU 架構和最佳化的軟體堆疊而打造, GMI 雲端推論引擎 使企業能夠以更低的成本和更高的可靠性更快地部署 AI 模型。無論您是執行 LLM、視覺模型還是即時 AI 應用程式,GMI Cloud 的推論解決方案都能確保無縫的效能和擴充性。
GMI Cloud 創始人兼首席執行官 Alex Yeh 表示:「人工智慧應用程式的時代已經來臨。「GMI Cloud 已為任何有想法構建任何東西的人建立了基礎。AI 的成本從未低,因此創新者可以通過令客戶滿意的 AI 產品競爭來解決有形問題,而不僅僅僅是在玩耍昂貴的玩具。我們的新 推論引擎 這是使 AI 部署與 AI 開發一樣輕鬆的下一步。」
立即開始
為您的 AI 提供支援 GMI 雲端領先業界的推論引擎。體驗更快的效能、更低的成本和輕鬆擴展 —— 專為獲勝的 AI 開發而打造。


