HBM은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 제품이다. AI 개발에 주로 사용되는 그래픽처리장치(GPU)에 결합해 사용하기 가장 적합한 것으로 평가된다. 최상위권 AI 서버 GPU들이 대부분 HBM을 사용하면서 사실상 산업 표준으로 자리잡았다.
성장 가능성도 크다. 시장조사업체 트렌드포스는 올해 전 세계 HBM 수요가 2억9000만GB(기가바이트)로 지난해 대비 60% 증가하고, 내년에는 추가로 30% 성장할 것으로 전망했다.
일반 D램 보다 가격이 적게는 2배, 많게는 5배까지 비싸 수익성이 높은 점 역시 최근 영업적자를 기록한 메모리반도체 기업들이 HBM에 주력할 수 밖에 없는 이유다. 국내 메모리반도체 업계 관계자는 "DDR5 등은 이미 고객사나 우리 공급사 모두 재고가 많은 상황"이라며 "HBM은 만드는 족족 팔리니 메모리 회사들이 HBM 생산을 늘릴 수 밖에 없다"고 말했다.
두 회사는 2013년 SK하이닉스가 AMD와 함께 최초로 HBM을 개발한 이후 시장 주도권을 두고 엎치락 뒤치락 경쟁해왔다. 2년 후인 2015년엔 삼성전자가 2세대 HBM인 HBM2 개발에 성공하면서 시장 점유율을 압도적으로 가져갔다. 이 때 SK하이닉스가 발빠르게 3세대(HBM2E)와 4세대(HBM3) 개발에 집중하면서, 다시 주도권을 가져왔다.
업계는 SK하이닉스와 삼성전자 가운데 먼저 5세대 HBM을 내놓는 곳이 다시 한번 승기를 잡을 것이라 보고 있다. 두 회사 모두 내년 양산을 목표로 5세대 HBM을 개발 중이다. SK하이닉스는 5세대인 HBM3E를 최근 다수의 북미 고객사에 샘플 제공한 것으로 전해진다. 삼성전자 역시 4세대인 HBM3 샘플을 다수 고객사에 제공했고, 이보다 한단계 높은 성능인 HBM3P와 HBM4를 개발 중이다.
박영준 서울대 전기정보공학부 명예교수는 "AI 시대엔 데이터가 기존과는 차원이 다를 정도로 폭증할 것"이라며 "더 많은 양의 정보를, 더 적은 전력으로 처리할 수 있는 HBM은 필수적"이라고 말했다.
[저작권자 @머니투데이, 무단전재 및 재배포 금지]