GPU

데이터센터용 NVIDIA GPU 총정리 (A100 → Blackwell Ultra)

donut ai 2026. 4. 12. 19:16

"A100부터 GB300 NVL72까지 — 아키텍처, 성능, 활용 사례를 한눈에 비교"


배경

AI 시대가 가속화되면서 NVIDIA 데이터센터 GPU에 대한 관심이 높아지고 있습니다. 그런데 A100, H100, B200, GB200 NVL72… 모델명이 너무 많아서 헷갈리지 않으신가요?

A100 이후 출시된 NVIDIA 데이터센터 GPU를 시리즈별로 정리하고, 각 GPU의 성능·메모리·활용 사례를 쉽게 이해할 수 있도록 설명하고자 합니다.


정의

데이터센터용 NVIDIA GPU는 출시 순서에 따라 A → L → H → B 시리즈로 이어집니다. 각 알파벳은 해당 GPU의 아키텍처 이름 앞글자를 의미합니다.

Ampere 아키텍처
A 시리즈 — A100 (40GB / 80GB)
2020년 출시. AI 붐의 기반이 된 GPU. LLM 학습 및 추론의 시작점.
 
Ada Lovelace 아키텍처
L 시리즈 — L4, L40S
2023년 출시. 엣지 AI·그래픽·생성형 AI에 최적화. 저전력 고효율.
 
Hopper 아키텍처
H 시리즈 — H100, H200
2022~2023년. ChatGPT 붐을 이끈 GPU. FP8 지원, 대규모 LLM 학습/추론.
 
Blackwell 아키텍처
B 시리즈 — B100, B200, GB200, GB300, B300, GB300 NVL72
2024~2025년. GPU+CPU 통합 Superchip 등장. 추론 시대에 최적화된 설계.
 
Veraru bin 아키텍처 (작성중)

주요 전환점

1. Superchip 등장 — GPU + CPU 통합

B 시리즈 이전까지는 GPU만 존재했지만, B 시리즈부터 Grace CPU와 Blackwell GPU를 하나로 통합한 Superchip(GB 시리즈)가 추가되었습니다.

B 시리즈 (예: B200)
- GPU 단독

- Blackwell GPU 1장만 포함.

 
GB 시리즈 (예: GB200)
- GPU + CPU 통합

- Grace CPU 1개 + B200 GPU 1개를 NVLink로 연결한 Superchip.

 

2. NVL72 — 72장 GPU를 하나의 제품으로

GB200 NVL72는 GB200 Superchip 72장(Grace CPU 36개 포함)을 하나의 랙 제품으로 구성한 것입니다. NVIDIA는 이를 통해 Hopper 기반 플랫폼 대비 최대 30배 빠른 실시간 조 단위 파라미터 LLM 추론이 가능하다고 발표했습니다.

 

3. 냉각 방식의 전환 — 공냉 → 수냉

⚠️ 데이터센터 인프라 주의사항

GB300, GB300 NVL72는 기존 공랭식에서수냉식 냉각이 필수입니다. 기존 데이터센터에 설치 시 수냉 시설 별도 구축이 필요하며, 이로 인해 추가적인 리드타임과 비용이 발생합니다.


주요 스펙

GPU 모델 아키텍처 TDP(장당) 냉각주요 활용
GB300 NVL72
랙 72장 구성
Blackwell Ultra + Grace 130~140kW (랙) ● 수냉 엑사스케일 AI 추론, 테스트 타임 확장
GB300
Superchip
Blackwell Ultra + Grace 1,400W ● 수냉 AI 추론, 긴 컨텍스트 처리
B300
Blackwell Ultra
Blackwell Ultra 1,400W ● 수냉/공냉 AI 추론(Reasoning), 에이전틱 AI
GB200 NVL72
랙 72장 구성
Blackwell + Grace 120~135kW (랙) ● 수냉 조 단위 파라미터 LLM 추론, 엑사스케일
GB200
Superchip
Blackwell + Grace 1,000~1,200W ● 수냉 조 단위 파라미터 LLM 학습/추론
B200 Blackwell 1,000~1,200W ● 공냉/수냉 프론티어급 AI, 초거대 모델
B100 Blackwell 700W ● 공냉 차세대 AI 학습/추론, HPC
H200 Hopper 600~700W ● 공냉/수냉 100B+ LLM, 긴 컨텍스트 추론
H100
SXM / PCIe
Hopper 350~700W ● 공냉/수냉 고급 LLM 학습/추론, 과학 HPC
L40S Ada Lovelace 350W ● Passive 생성형 AI, LLM 파인튜닝, 3D 렌더링
L4 Ada Lovelace 72W ● Passive 엣지 AI, 비디오 처리, 효율적 추론
A100 (80GB) Ampere 300~400W ● Passive/수냉 고성능 LLM 학습/추론, 슈퍼컴퓨팅
A100 (40GB) Ampere 250~400W ● Passive LLM 파인튜닝, 대규모 데이터 분석

 

 

시사점

 


** 개인 공부를 위한 리서치와 이를 기반한 개인의견이 담긴 글이라, 정확하지 않을 수 있습니다. 많은 고견 부탁드립니다.

 

 

 

'GPU' 카테고리의 다른 글

NVIDA Vera Rubin을 통한 AI 슈퍼컴퓨터의 새 시대  (0) 2026.04.12