솔루션
GPU Compute
Cluster Engine
Inference Engine
Model Library
Model Library
Application Platform
GPUs
NVIDIA H200
NVIDIA GB200 NVL72
NVIDIA HGX™ B200
가격
회사 소개
Demo Apps
GMI Studio
Docs Hub
Company
About Us
Blog
Discord
Partners
Careers
English
한국어
English
日本語
한국어
繁體中文
문의하기
Get Started
용어집
Turnkey Kubernetes control plane to transform your GPU resources into high-value AI services.
Get started
features
All
security
Large Language Models (LLMs)
뼈대
네트워킹
하드웨어
머신 러닝 오퍼레이션
인공 지능
Cluster engine
Inference Engine
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
DGX 시스템
DGX는 NVIDIA에서 개발한 고성능 컴퓨팅 시스템으로, AI 및 딥 러닝 워크로드를 위해 특별히 설계되었습니다.
인공 지능
머신 러닝 오퍼레이션
READ MORE
대규모 언어 모델 (LLM)
LLM은 인간과 유사한 언어를 이해하고 생성하기 위해 대규모 텍스트 데이터 세트를 기반으로 학습된 일종의 AI 모델입니다.
인공 지능
READ MORE
딥 러닝
딥러닝은 여러 계층이 있는 인공 신경망을 사용하여 데이터의 복잡한 패턴을 모델링하는 데 초점을 맞춘 머신 러닝의 하위 집합입니다.
인공 지능
READ MORE
CUDA (컴퓨팅 통합 장치 아키텍처)
CUDA (Compute Unified Device Architecture) 는 병렬 컴퓨팅을 위한 NVIDIA의 플랫폼으로, 대량의 컴퓨팅 작업을 위한 GPU 가속화를 지원합니다.
머신 러닝 오퍼레이션
READ MORE
Previous
1
Next