GMI에 도래하는 AI의 새로운 시대

GMI Cloud는 AI 혁신가에게 NVIDIA의 GB200 NVL72 플랫폼에 대한 탁월한 액세스를 제공하여 대규모 언어 모델 (LLM) 추론, 벡터 데이터베이스 검색 및 데이터 처리를 위한 획기적인 성능을 제공합니다.듀얼 블랙웰 GPU와 NVIDIA의 NVLink® 인터커넥트로 구동되는 GB200 NVL72 은 대규모 AI 워크로드를 처리하기 위해 특별히 제작되었으며, NVIDIA의 확장 가능한 MGX™ 아키텍처를 통해 기존 인프라에 원활하게 통합됩니다.GMI Cloud와 NVIDIA GB200 NVL72 제품을 사용하면 더 스마트하게 확장하고 더 빠르게 혁신하여 가속화된 컴퓨팅의 잠재력을 최대한 활용할 수 있습니다.initial takeaways here.
Reach out for access to our dedicated endpoint Here.
자주 묻는 질문에 대한 빠른 답변을 저희 사이트에서 확인하세요 자주 묻는 질문.
GMI Cloud hosts a dedicated DeepSeek-R1 inference endpoint on optimized, US-based hardware. You can use it either as Serverless (MaaS) for on-demand access or as a Dedicated Endpoint if you want an isolated deployment.
The page lists: Type: Chat • Parameters: 685B • Quantization: FP16 • Context length: up to 128,000 tokens.
우리는 pip와 conda를 사용하여 고도로 사용자 정의 가능한 환경을 갖춘 텐서플로우, 파이토치, 케라스, 카페, MXNet 및 ONNX를 지원합니다.
GMI Cloud lists multiple distilled options:
DeepSeek-R1-Distill-Llama-70B
DeepSeek-R1-Distill-Qwen-32B
DeepSeek-R1-Distill-Qwen-14B
DeepSeek-R1-Distill-Llama-8B
DeepSeek-R1-Distill-Qwen-7B
DeepSeek-R1-Distill-Qwen-1.5B
The page describes DeepSeek R1 as an open-source reasoning model that excels in math, code, and reasoning with a focus on cost efficiency, making it suitable for chat-style reasoning tasks where long context and structured problem solving matter.
The page states that DeepSeek R1 is an open-source reasoning model rivaling OpenAI-o1, highlighting strong math, coding, and reasoning capabilities while emphasizing efficiency.