고대역 메모리
[High bandwidth memory, HBM]D램 여러 개를 수직으로 연결해 기존 D램보다 데이터 처리 속도를 대폭 끌어올린 고대역폭 반도체. D램을 여러 개 적층하면 기반 면적당 훨씬 높은 용량을 확보할 수 있어 대용량의 데이터 처리가 가능하다. 중앙처리장치(CPU), 그래픽처리장치(GPU)와 함께 패키징되며 칩과 칩사이는 TSV(Through-Silicon Via) 기술을 사용해 연결한다.
이런한 구조로 인해 HBM의 대역폭은 매우 높다. 데이터 전송속도가 매우 빨라 매우 높은 성능을 발휘하기 때문에 머신 러닝, 고성능 컴퓨팅 분야에서 주로 사용된다.
HBM은 뛰어난 성능에도 불구하고 일반 D램보다 활용도가 낮았다. 생산 공정이 복잡하고 고난도 기술이 필요해 평균판매단가(ASP)가 D램의 최소 세 배 이상이었기 때문이다. 하지만 2023년 들어 인공지능(AI) 챗봇인 ‘챗GPT’가 등장하면서 메모리반도체 시장에 지각변동이 일어나고 있다. PC·스마트폰용 메모리반도체에 밀려 큰 관심을 못 받았던 ‘고대역 메모리(HBM)’ D램 등 고성능 반도체가 각광받고 있다. AI 서비스 확대로 D램의 데이터 처리 속도가 중요해졌기 때문이다. 반도체업계에선 수년 내 AI에 특화된 메모리반도체를 중심으로 새 판이 짜일 것이란 전망이 나온다.
HBM 시장의 주도권을 쥔 건 SK하이닉스다. SK하이닉스는 2013년 미국 AMD와 함께 세계 최초 HBM을 개발, 양산했다. 1세대(HBM), 2세대(HBM2), 3세대(HBM2E), 4세대(HBM3) 등의 제품을 계속 내놓으면서 60~70% 수준의 시장 점유율을 확보한 것으로 알려졌다.
삼성전자는 2021년 2월 AMD와 협력해 메모리반도체와 AI 프로세서를 하나로 결합한 ‘HBM-PIM(지능형 메모리)’ 기술을 개발했다. PIM은 데이터를 임시 저장하기만 하던 메모리반도체에 CPU 같은 칩처럼 연산이 가능하도록 하는 기술이다. HBM-PIM을 CPU, GPU에 장착하면 서버의 연산 속도가 획기적으로 빨라진다. SK하이닉스도 2022년 2월 PIM을 적용한 제품 솔루션을 공개했다.
업계에선 고부가가치 D램이 얼어붙은 메모리반도체 시장의 구원투수 역할을 할 것이란 예상이 나온다. 삼성전자가 메모리반도체의 인위적 감산에 소극적인 것도 AI 기술 등의 확대로 올 하반기 D램 수요가 살아날 것으로 보고 있어서다. 김재준 삼성전자 메모리사업부 부사장은 지난달 열린 콘퍼런스콜에서 “AI 기술에 기반한 모델의 학습과 추론을 위해서는 대량 연산이 가능한 고성능 프로세스와 이를 지원하는 고성능 고용량 메모리 조합이 필수”라고 말했다.
중장기적으론 HBM 등 AI 특화 D램 개발이 업계 판도를 흔들 것이란 전망도 나온다. 반도체업계 관계자는 “메모리반도체 업체들이 미세공정 개발에 열을 올리던 시대는 지났다”며 “데이터를 효율적으로 처리하면서 연산 처리 능력까지 갖춘 AI 반도체 기술 개발이 업체 명운을 가를 정도로 중요해질 것”이라고 말했다.
-
간이과세자
부가가치세를 매길 때 여러 가지 세금 혜택을 주는 사업자. 개인사업자 중 연간 매출...
-
기술무역[technology trade]
기술 및 기술서비스와 관련된 국가 간 상업적 거래를 말한다. 특허 판매 및 사용료, 발명,...
-
골드 버튼[Gold Button]
유튜브(YouTube)에서 구독자 100만명을 달성한 채널에 수여하는 상. 금 도금 ...
-
건물에너지관리시스템[building energy management system, BEMS]
건물 내 조명, 설비의 실시간 에너지소비 상태를 점검, 평가해 불필요한 에너지 사용 요인을...