"A100부터 GB300 NVL72까지 — 아키텍처, 성능, 활용 사례를 한눈에 비교"
배경
AI 시대가 가속화되면서 NVIDIA 데이터센터 GPU에 대한 관심이 높아지고 있습니다. 그런데 A100, H100, B200, GB200 NVL72… 모델명이 너무 많아서 헷갈리지 않으신가요?
A100 이후 출시된 NVIDIA 데이터센터 GPU를 시리즈별로 정리하고, 각 GPU의 성능·메모리·활용 사례를 쉽게 이해할 수 있도록 설명하고자 합니다.
정의
데이터센터용 NVIDIA GPU는 출시 순서에 따라 A → L → H → B 시리즈로 이어집니다. 각 알파벳은 해당 GPU의 아키텍처 이름 앞글자를 의미합니다.
주요 전환점
1. Superchip 등장 — GPU + CPU 통합
B 시리즈 이전까지는 GPU만 존재했지만, B 시리즈부터 Grace CPU와 Blackwell GPU를 하나로 통합한 Superchip(GB 시리즈)가 추가되었습니다.
- Blackwell GPU 1장만 포함.
- Grace CPU 1개 + B200 GPU 1개를 NVLink로 연결한 Superchip.
2. NVL72 — 72장 GPU를 하나의 제품으로
GB200 NVL72는 GB200 Superchip 72장(Grace CPU 36개 포함)을 하나의 랙 제품으로 구성한 것입니다. NVIDIA는 이를 통해 Hopper 기반 플랫폼 대비 최대 30배 빠른 실시간 조 단위 파라미터 LLM 추론이 가능하다고 발표했습니다.
3. 냉각 방식의 전환 — 공냉 → 수냉
GB300, GB300 NVL72는 기존 공랭식에서수냉식 냉각이 필수입니다. 기존 데이터센터에 설치 시 수냉 시설 별도 구축이 필요하며, 이로 인해 추가적인 리드타임과 비용이 발생합니다.
주요 스펙
| GPU 모델 | 아키텍처 | TDP(장당) | 냉각주요 | 활용 |
| GB300 NVL72 랙 72장 구성 |
Blackwell Ultra + Grace | 130~140kW (랙) | ● 수냉 | 엑사스케일 AI 추론, 테스트 타임 확장 |
| GB300 Superchip |
Blackwell Ultra + Grace | 1,400W | ● 수냉 | AI 추론, 긴 컨텍스트 처리 |
| B300 Blackwell Ultra |
Blackwell Ultra | 1,400W | ● 수냉/공냉 | AI 추론(Reasoning), 에이전틱 AI |
| GB200 NVL72 랙 72장 구성 |
Blackwell + Grace | 120~135kW (랙) | ● 수냉 | 조 단위 파라미터 LLM 추론, 엑사스케일 |
| GB200 Superchip |
Blackwell + Grace | 1,000~1,200W | ● 수냉 | 조 단위 파라미터 LLM 학습/추론 |
| B200 | Blackwell | 1,000~1,200W | ● 공냉/수냉 | 프론티어급 AI, 초거대 모델 |
| B100 | Blackwell | 700W | ● 공냉 | 차세대 AI 학습/추론, HPC |
| H200 | Hopper | 600~700W | ● 공냉/수냉 | 100B+ LLM, 긴 컨텍스트 추론 |
| H100 SXM / PCIe |
Hopper | 350~700W | ● 공냉/수냉 | 고급 LLM 학습/추론, 과학 HPC |
| L40S | Ada Lovelace | 350W | ● Passive | 생성형 AI, LLM 파인튜닝, 3D 렌더링 |
| L4 | Ada Lovelace | 72W | ● Passive | 엣지 AI, 비디오 처리, 효율적 추론 |
| A100 (80GB) | Ampere | 300~400W | ● Passive/수냉 | 고성능 LLM 학습/추론, 슈퍼컴퓨팅 |
| A100 (40GB) | Ampere | 250~400W | ● Passive | LLM 파인튜닝, 대규모 데이터 분석 |
시사점
** 개인 공부를 위한 리서치와 이를 기반한 개인의견이 담긴 글이라, 정확하지 않을 수 있습니다. 많은 고견 부탁드립니다.
'GPU' 카테고리의 다른 글
| NVIDA Vera Rubin을 통한 AI 슈퍼컴퓨터의 새 시대 (0) | 2026.04.12 |
|---|