DeepSeek R1 最高規格部署!GMI Cloud 率先完成 H200 GPU 優化

新年獻禮:DeepSeek 全系列模型限時免費體驗

2025 1 月底,DeepSeek 推出了一款效能可以跟 OpenAI o1 模型相比擬的推理模型 R1。這個模型不只成本比 o1 便宜很多,還開放原始碼,API 收費也比 o1 便宜許多,一推出立刻在 AI 圈引起熱烈討論。隨後,DeepSeek 又推出並開源了多模態 AI 模型 Janus-Pro,這是一款以 DeepSeek-LLM-1.5b-base 和 DeepSeek-LLM-7b-base 為基礎建立的模型。其中的 Janus-Pro-7B 在 GenEval 和 DPG-Bench 這些基準測試中,不管是文字生成、語意理解還是知識問答等重要任務上,都超越了 OpenAI 的 DALL-E 3 和 Stable Diffusion,驚艷了全球 AI 圈。

DeepSeek 在 GitHub 開源後,程式碼庫迅速吸引大量開發者注意,加星數很快就突破十萬,而且有許多基於 DeepSeek 開發的專案,像是程式碼自動補完、智慧文件摘要等,已經在金融、醫療、研究等多個領域成功部署,大大推進了 AI 應用的創新與實際應用。


亞洲新年假期間,GMI Cloud 技術團隊不遺餘力在第一時間在北美完成了 DeepSeek R1 在 NVIDIA 目前最強大的 H200 GPU 伺服器上的部署調適與優化,建立了專屬的 DeepSeek - R1 推理端點!


為了讓更多 AI 企業能夠體驗,GMI Cloud 本週正式限時免費體驗活動!請填寫以下聯絡表單,立即獲得體驗資格,輕鬆完成一鍵部署!

技術細節:

  • 模型提供者:DeepSeek
  • 類型:對話式 AI
  • 參數:6850 B(6850 億參數)
  • 部署:可選擇無伺服器(MaaS)或專屬端點
  • 量化等級:FP16
  • 上下文長度:單次對話可記憶和處理長達128,000個詞元(token)的內容

此外,我們還提供以下蒸餾型號:

  • DeepSeek-R1-Distill-Llama-70B(700 億參數版)
  • DeepSeek-R1-Distill-Qwen-32B(320 億參數版)
  • DeepSeek-R1-Distill-Qwen-14B(140 億參數版)
  • DeepSeek-R1-Distill-Llama-8B(80 億參數版)
  • DeepSeek-R1-Distill-Qwen-7B(70 億參數版)
  • DeepSeek-R1-Distill-Qwen-1.5B(15 億參數版)

想了解 DeepSeek-R1 是什麼?請看我們的首波評測

立即試用! 如需使用專屬端點,請聯繫我們

Build AI Without Limits
GMI Cloud helps you architect, deploy, optimize, and scale your AI strategies
Get Started Now

Ready to build?

Explore powerful AI models and launch your project in just a few clicks.
Get Started