본문 바로가기
AI · 인공지능/AI 뉴스

AWS, Azure, Cudo 등이 제공하는 클라우드 GPU는 시간당 몇 달러이며, 어떤 구성인가?

by 두우우부 2023. 5. 30.
반응형



신경망의 훈련이나 실행에는 GPU가 사용되는 경우가 많으며, 클라우드 서비스의 GPU 수요는 AI의 보급에 따라 높아지고 있습니다. 그런 클라우드 GPU의 구성과 가격을 AI 관련 뉴스 & 커뮤니티 사이트인 The Full Stack이 공개했습니다.

Cloud GPUs - The Full Stack
https://fullstackdeeplearning.com/cloud-gpus/

Cloud GPUs Comparison Table

Detailed comparison table of cloud GPU providers for deep learning.

fullstackdeeplearning.com


공개된 정보는 클라우드 서버와 서버리스의 두 가지 유형으로 나뉩니다. 픽업된 서비스는 Amazon Web Service(AWS)나 Microsoft Azure, Cudo Compute, Google Cloud Platform(GCP), AWS Lambda 등으로, Hugging Face 등의 일부 서비스는 기재되지 않았습니다.


아래는 클라우드 서버의 테이블입니다. 요금은 모두 시간당 달러로 표기됩니다.

 

예를 들어 AWS의 p4d.24xlarge라면 아키텍처는 NVIDIA의 Ampere, GPU 종류는 A100(40GB), 개수는 8개, RAM은 320GiB, vCPU는 96, RAM은 1152GiB, 온디맨드 요금은 시간당 32.77 달러(약 4만 3,500 원), GPU별 요금이 시간당 4.10달러(약 5,400 원), 스팟 인스턴스 요금이 시간당 9.83달러(약 1만 3,000 원)입니다.

 

카테고리 제목을 클릭하면 정렬도 가능합니다.

 

아래쪽 삼각형을 클릭하면 필터도 가능합니다.

 

그다음은 서버리스 테이블.
여기서는 "서버 관리 불필요, 유연한 스케일링, 고가용성, 유휴 용량 없음"이라는 조건이 서버리스로 정의되어 있습니다.

 

다음에 표시되는 것은, GPU를 선택할 때 도움이 되는 플로우 차트입니다. 

「조직인가?」,「대규모 언어 모델(LLM)의 트레이닝을 원하는가?」등의 질문에 대답해 나가면, 적절한 GPU를 알 수 있다는 것입니다. 

이 그림에 따르면 13B 이상의 LLM 훈련을 원하는 경우 Azure 또는 AWS의 이용을 추천하고 있네요.

 

GPU 모델별 데이터 시트에 대한 링크도 게재되어 있습니다.

 

그다음에 설명되는 것은 일반적인 심층 학습 작업에서 GPU의 기본 벤치 마크 수치.

 

마지막으로 Lambda Labs가 공개한 PyTorch의 벤치마크 결과 게재되었습니다.

반응형