2025 1 月底,DeepSeek 推出了一款效能可以跟 OpenAI o1 模型相比擬的推理模型 R1。這個模型不只成本比 o1 便宜很多,還開放原始碼,API 收費也比 o1 便宜許多,一推出立刻在 AI 圈引起熱烈討論。隨後,DeepSeek 又推出並開源了多模態 AI 模型 Janus-Pro,這是一款以 DeepSeek-LLM-1.5b-base 和 DeepSeek-LLM-7b-base 為基礎建立的模型。其中的 Janus-Pro-7B 在 GenEval 和 DPG-Bench 這些基準測試中,不管是文字生成、語意理解還是知識問答等重要任務上,都超越了 OpenAI 的 DALL-E 3 和 Stable Diffusion,驚艷了全球 AI 圈。
DeepSeek 在 GitHub 開源後,程式碼庫迅速吸引大量開發者注意,加星數很快就突破十萬,而且有許多基於 DeepSeek 開發的專案,像是程式碼自動補完、智慧文件摘要等,已經在金融、醫療、研究等多個領域成功部署,大大推進了 AI 應用的創新與實際應用。
亞洲新年假期間,GMI Cloud 技術團隊不遺餘力在第一時間在北美完成了 DeepSeek R1 在 NVIDIA 目前最強大的 H200 GPU 伺服器上的部署調適與優化,建立了專屬的 DeepSeek - R1 推理端點!
為了讓更多 AI 企業能夠體驗,GMI Cloud 本週正式限時免費體驗活動!請填寫以下聯絡表單,立即獲得體驗資格,輕鬆完成一鍵部署!
技術細節:
- 模型提供者:DeepSeek
- 類型:對話式 AI
- 參數:6850 B(6850 億參數)
- 部署:可選擇無伺服器(MaaS)或專屬端點
- 量化等級:FP16
- 上下文長度:單次對話可記憶和處理長達128,000個詞元(token)的內容
此外,我們還提供以下蒸餾型號:
- DeepSeek-R1-Distill-Llama-70B(700 億參數版)
- DeepSeek-R1-Distill-Qwen-32B(320 億參數版)
- DeepSeek-R1-Distill-Qwen-14B(140 億參數版)
- DeepSeek-R1-Distill-Llama-8B(80 億參數版)
- DeepSeek-R1-Distill-Qwen-7B(70 億參數版)
- DeepSeek-R1-Distill-Qwen-1.5B(15 億參數版)
想了解 DeepSeek-R1 是什麼?請看我們的首波評測。
立即試用! 如需使用專屬端點,請聯繫我們。


