Reserved Cloud

대규모 AI 모델 학습 및 추론을 위한 H100 GPU 서버 호스팅

고사양 서버를 연간 약정 및 할부 결제로 저렴하게 이용하고, 

전문 데이터센터 관리를 통해 최적의 AI 작업 환경을 경험해보세요

이용 문의
서비스 특징

생성형 AI에 특화된 최신 NVIDIA GPU로
경쟁력을 강화하세요

엔터프라이즈급 최신 고성능 GPU를 통해 훈련된 LLM 성능을 강화하실 수 있습니다

NVIDIA Tesla A100

NVIDIA A100은 TSMC의 7nm 공정으로 제조된 GPU입니다. 다이 크기는 846제곱mm, 트랜지스터 수는 542억개로 NVIDIA GPU 중 역대 최대입니다

NVIDIA H100

H100은 대역폭 3.35TB/s의 80GB HBM3 메모리를 갖추고 있으며 인공지능, 머신러닝, 데이터 분석 등 다양한 고성능 컴퓨팅 작업에서 뛰어난 성능을 발휘하도록 설계되었습니다

NVIDIA B200 (출시예정)

NVIDIA B200 Tensor Core GPU는 HBM3e를 제공하는 최초의 GPU입니다. HBM3e는 생성 AI 및 LLM의 가속화를 촉진하는 더 빠르고 더 큰 메모리입니다

도입 효과

고성능 AI 슈퍼컴퓨터, 

초기 비용 부담은 줄이고 빠르게 구축하세요

수천만원을 호가하는 금액을 한번에 지불할 필요 없이, 계약 방식에 따라 할부 형태로 비용을 지불함으로써 경제적 부담을 줄일 수 있습니다

비용 절감 및 성능 향상

다수의 GPU 클러스터를 
1-3년 유연한 계약으로 연구 성능을 강화할 수 있습니다

높은 확장성

작업 효율성을 위해 리소스 요구 사항의 변화에 맞춰 규모를 조정하고, 용량 확장과 모델 훈련을 강화하세요

빠르고 강력한 네트워크

NVIDIA의 고성능 GPU를 지연이나 병목 현상 없이 빠르게 이용하실 수 있습니다

제품 사양

대규모 모델에 최적화된
GPU / 스토리지 / 네트워크 대역폭

속도와 성능 때문에 고민하지마세요. 비차단 InfiniBand 네트워킹을 통해 최적의 GPU 통신을 보장합니다

INSTANCE TYPE

GPU

GPU MEMORY

vCPUs

STORAGE

NETWORK BANDWIDTH


NVIDIA A100

구매 방식

8x NVIDIA A100

서버 규모(플랫폼 환경)

A100

서버 규모(플랫폼 환경)

8x 80 GB

서버 규모(플랫폼 환경)

128 Core

서버 규모(플랫폼 환경)

10 TB

서버 규모(플랫폼 환경)

최대 1600 Gbps

(출시예정)

NVIDIA B200

구매 방식

8x NVIDIA B200

서버 규모(플랫폼 환경)

B200

서버 규모(플랫폼 환경)

8x 141 GB

서버 규모(플랫폼 환경)

224 Core

서버 규모(플랫폼 환경)

30 TB

서버 규모(플랫폼 환경)

최대 3200 Gbps
AI 전용 소프트웨어 탑재

탑재된 AI 전용 소프트웨어를 통해
빠르게 ML/DL 환경을 제공합니다

사전 구성된 소프트웨어, 공유 스토리지, 딥러닝을 위한 네트워킹을 사용하여 즉시 작업을 시작하세요

코로케이션

고전력 서버 운영 공간 및 관리가 고민이라면?

코로케이션을 통해 부하 및 장애를 예방하고 성능과 안정성을 보장 받으세요

Mondrian 데이터센터

해당 서비스를 통해 랙킹, 네트워크, 냉각, 하드웨어 오류에 대한 걱정 없이 작업에만 집중하실 수 있습니다

Check Circle Icon - Techflow X Webflow Template
최적의 서버 운영 환경 제공
Check Circle Icon - Techflow X Webflow Template
고전력 수용 및 여분 전원으로 안정성 제공
Check Circle Icon - Techflow X Webflow Template
중복 구성의 네트웍 백본 이중화로 안정성 확보

Contact

견적이 궁금하시다면, 아래 항목을 작성해주세요.
확인 후 빠르게 연락 드리겠습니다

감사합니다

영업일 기준 3일 이내로 확인 후 답변 드리겠습니다
작성 양식을 확인해주세요