경제용어사전

H100

[NVIDIA Hopper GPU, H100]

H100은 엔비디아(NVIDIA)가 2022년에 출시한 차세대 인공지능(AI) 및 고성능 컴퓨팅(HPC)용 그래픽처리장치(GPU)로, ‘호퍼(Hopper)’ 아키텍처 기반의 첫 제품이다.

트랜스포머 모델 처리와 대규모 언어모델 학습에 최적화되어 있으며, GPT-4와 같은 초거대 AI 모델의 학습과 추론에 주로 사용된다.

H100은 최대 80GB의 HBM3 고대역폭 메모리를 탑재하고, NVLink 및 PCIe Gen5 인터페이스를 통해 초고속 데이터 전송을 지원한다.

이전 세대인 A100 대비 최대 6배 향상된 AI 처리 성능을 제공하며, 데이터센터와 AI 슈퍼컴퓨터에서 핵심 부품으로 채택되고 있다.

미국 정부는 국가 안보를 이유로 2022년부터 H100의 중국 수출을 제한하고 있으며, 이후 엔비디아는 중국 전용 저사양 모델인 H20을 별도로 개발했다.

관련어

  • HMD[head mounted display, HMD]

    안경처럼 머리에 쓰고 영상을 감상할 수 있는 영상표시기기. 1968년 미국 유타대에서 컴퓨...

  • H200[NVIDIA H200 Tensor Core GPU]

    엔비디아가 개발한 차세대 고성능 GPU로, 생성형 AI 및 대규모 언어 모델(LLM) 연산...

  • HBM3E 12 H

    삼성전자가 업계 최초로 개발한 36GB(기가바이트) 용량의 5세대 HBM(High Band...

  • HPV[hour per vehicle]

    차량 한대를 생산하는데 투입되는 시간