Reserved Cloud

대규모 AI 모델 학습 및 추론을 위한 H100 GPU 서버 호스팅

최신 H100, A100 등 GPU 서버를 글로벌 최저가로 장기 임대하세요!
대규모 모델 학습 및 추론에 최적화된 환경을 제공합니다.

이용 문의
서비스 특징

최신 NVIDIA GPU를 베어메탈 환경에서

연구 속도를 가속화하세요

엔터프라이즈급 최신 고성능 GPU를 통해 훈련된 모델 성능을 강화하실 수 있습니다

NVIDIA Tesla A100

NVIDIA A100은 TSMC의 7nm 공정으로 제조된 GPU입니다. 다이 크기는 846제곱mm, 트랜지스터 수는 542억개로 NVIDIA GPU 중 역대 최대입니다

NVIDIA H100

H100은 대역폭 3.35TB/s의 80GB HBM3 메모리를 갖추고 있으며 인공지능, 머신러닝, 데이터 분석 등 다양한 고성능 컴퓨팅 작업에서 뛰어난 성능을 발휘하도록 설계되었습니다

NVIDIA B200

NVIDIA B200 Tensor Core GPU는 HBM3e를 제공하는 최초의 GPU입니다. HBM3e는 생성 AI 및 LLM의 가속화를 촉진하는 더 빠르고 더 큰 메모리입니다

도입 효과

가장 경제적으로, 가장 안정적으로

AI 연구 환경을 빠르게 구축하세요

수천만원을 호가하는 금액을 한번에 지불할 필요 없이,
월 단위 약정으로 비용을 지불함으로써 경제적 부담을 줄일 수 있습니다

비용 절감 및 성능 향상

다수의 GPU 클러스터를 유연한 계약으로 연구 성능을 강화할 수 있습니다

높은 확장성

작업 효율성을 위해 리소스 요구 사항의 변화에 맞춰 규모를 조정하고, 용량 확장과 모델 훈련을 강화하세요

빠르고 강력한 네트워크

NVIDIA의 고성능 GPU를 지연이나 병목 현상 없이 빠르게 이용하실 수 있습니다

제품 사양

대규모 모델에 최적화된
GPU / 스토리지 / 네트워크 대역폭

속도와 성능 때문에 고민하지마세요. 비차단 InfiniBand 네트워킹을 통해 최적의 GPU 통신을 보장합니다

INSTANCE TYPE

GPU

GPU MEMORY

vCPUs

STORAGE

NETWORK BANDWIDTH


NVIDIA A100

구매 방식

8x NVIDIA A100

서버 규모(플랫폼 환경)

A100

서버 규모(플랫폼 환경)

8x 80 GB

서버 규모(플랫폼 환경)

128 Core

서버 규모(플랫폼 환경)

10 TB

서버 규모(플랫폼 환경)

최대 1600 Gbps

NVIDIA B200

구매 방식

8x NVIDIA B200

서버 규모(플랫폼 환경)

B200

서버 규모(플랫폼 환경)

8x 141 GB

서버 규모(플랫폼 환경)

224 Core

서버 규모(플랫폼 환경)

30 TB

서버 규모(플랫폼 환경)

최대 3200 Gbps
AI 전용 소프트웨어 탑재

탑재된 AI 전용 소프트웨어를 통해
빠르게 ML/DL 환경을 제공합니다

사전 구성된 소프트웨어, 공유 스토리지, 딥러닝을 위한 네트워킹을 사용하여 즉시 작업을 시작하세요

코로케이션

고전력 서버 운영 공간 및 관리가 고민이라면?

코로케이션을 통해 부하 및 장애를 예방하고 성능과 안정성을 보장 받으세요

Mondrian 데이터센터

해당 서비스를 통해 랙킹, 네트워크, 냉각, 하드웨어 오류에 대한 걱정 없이 작업에만 집중하실 수 있습니다

Check Circle Icon - Techflow X Webflow Template
최적의 서버 운영 환경 제공
Check Circle Icon - Techflow X Webflow Template
고전력 수용 및 여분 전원으로 안정성 제공
Check Circle Icon - Techflow X Webflow Template
중복 구성의 네트웍 백본 이중화로 안정성 확보

Contact

견적이 궁금하시다면, 아래 항목을 작성해주세요.
확인 후 빠르게 연락 드리겠습니다

감사합니다

영업일 기준 3일 이내로 확인 후 답변 드리겠습니다.
작성 양식을 확인해주세요