B200
[NVIDIA B200]엔비디아(NVIDIA)의 블랙웰(Blackwell) 아키텍처 기반 고성능 GPU로, 대규모 언어 모델(LLM)과 생성형 AI의 추론 및 학습에 최적화된 병렬 연산 장치.
2080억 개의 트랜지스터와 최대 192GB의 HBM3e 메모리를 탑재하여 이전 세대 대비 연산 성능과 에너지 효율을 획기적으로 향상시켰다.
B200은 2024년 3월 NVIDIA GTC에서 발표된 차세대 AI GPU로, 홉퍼(Hopper) 아키텍처 기반의 H100을 계승한 제품이다. 블랙웰(Blackwell) 아키텍처(GB100)를 기반으로 하며, 두 개의 GPU 다이를 10TB/s의 NVLink로 연결한 듀얼 다이 구조를 통해 단일 GPU처럼 작동한다.
FP4 정밀도 기준으로 최대 20페타플롭스(PFLOPS)의 연산 성능을 제공하며, GPT-3급 LLM 추론에서 H100 대비 최대 30배의 성능 향상과 25배의 에너지 효율 개선을 달성했다.
메모리 역시 H100의 최대 80GB(HBM2e)에서 B200은 192GB(HBM3e)로 확장되며, 대규모 모델 학습과 추론에 적합하다.
이 GPU는 AI 학습 및 추론, 고성능 컴퓨팅(HPC), 클라우드 연산 환경 등에서 활용되며, 특히 초거대 AI 모델과 생성형 AI의 인프라로 각광받고 있다.
관련어
- 참조어국가 AI 컴퓨팅 센터