H100
[NVIDIA Hopper GPU, H100]H100은 엔비디아(NVIDIA)가 2022년에 출시한 차세대 인공지능(AI) 및 고성능 컴퓨팅(HPC)용 그래픽처리장치(GPU)로, ‘호퍼(Hopper)’ 아키텍처 기반의 첫 제품이다.
트랜스포머 모델 처리와 대규모 언어모델 학습에 최적화되어 있으며, GPT-4와 같은 초거대 AI 모델의 학습과 추론에 주로 사용된다.
H100은 최대 80GB의 HBM3 고대역폭 메모리를 탑재하고, NVLink 및 PCIe Gen5 인터페이스를 통해 초고속 데이터 전송을 지원한다.
이전 세대인 A100 대비 최대 6배 향상된 AI 처리 성능을 제공하며, 데이터센터와 AI 슈퍼컴퓨터에서 핵심 부품으로 채택되고 있다.
미국 정부는 국가 안보를 이유로 2022년부터 H100의 중국 수출을 제한하고 있으며, 이후 엔비디아는 중국 전용 저사양 모델인 H20을 별도로 개발했다.
-
HTML5[HyperText Markup Language 5]
웹 표준 기관인 월드와이드웹 컨소시엄(W3C)이 만들고 있는 차세대 웹 언어 규격이다. H...
-
HBM3[high bandwidth memory 3]
최신 디자인의 고성능 컴퓨터와 그래픽 카드에서 사용되는 메모리이다. HBM3은 이전의 HB...
-
HBM3E 12 H
삼성전자가 업계 최초로 개발한 36GB(기가바이트) 용량의 5세대 HBM(High Band...
-
HSBC한국구매관리자지수[HSBC South Korea Purchasing Managers’ Index]
세계선두 은행인 HSBC가 제조업계의 전반적인 상황을 나타내도록 설계한 종합 지표로서 경제...