"인텔·구글메타..·빅테크 AI칩 열풍에 韓 HBM 미소"

머니투데이 한지연 기자 2024.04.13 07:21
글자크기

[이슈속으로]

"인텔·구글메타..·빅테크 AI칩 열풍에 韓 HBM 미소"


"인텔의 가우디3가 느린 HBM(고대역폭메모리)때문에 엔비디아의 H100을 따라 잡을 준비가 돼 있지 않은 듯 하다"

인텔이 지난 9일(현지시간) 공개한 AI(인공지능) 가속기 '가우디3'에 대한 영국의 IT전문매체 '더 레지스터'의 평이다. 가우디 3로 엔비디아의 AI반도체 시장 독주에 맞서겠다는 인텔의 야심찬 발표를 다소 맥빠지게 하는 한줄 평이다.



레지스터는 인텔의 가우디3가 엔비디아의 H100에 뒤지는 핵심 근거로 'HBM'을 꼽았다. 계속해서 대규모 데이터를 주고받으며 학습하고 추론하는 AI 가속기엔 고성능 메모리반도체 D램, HBM이 필수적이다. 즉 HBM의 성능에 따라 AI 가속기의 성능도 달라질 수 있다.

인텔의 가우디3엔 HBM 3세대인 HBM2E가 사용됐다. 반면 인텔이 경쟁작으로 꼽은 엔비디아의 H100과 AMD의 M1300X엔 4세대 HBM인 HBM3가 사용된다. HBM3의 핀 당 데이터 전송률은 6.5Gbps로 초당 819GB(기가바이트)의 데이터 처리가 가능하다. 전작인 HBM2E는 3.6Gbps로 약 2배 느리다. 또 최대 용량도 HBM3는 24GB, HBM2E는 16GB다. 현재 가장 많이 쓰이는 주류는 HBM은 4세대인 HBM3다. 이 때문에 레지스터는 인텔이 HBM2E를 탑재한 가우디3를 지금 공개한 것을 두고 "애초 계획보다 시장 출시에 더 오랜 시간이 걸렸음을 시사한다"고 분석했다.



더욱이 엔비디아는 지난달부터 SK하이닉스로부터 5세대 HBM인 HBM3E를 공급받기 시작했다. 엔비디아는 올해 출시 예정인 H200과 B100에 HBM3E를 사용할 예정이다. 인텔의 가우디3가 2세대나 차이나는 HBM을 사용한 엔비디아의 AI가속기와 동시 경쟁하게 되는 셈이다.

자체 AI 칩을 내놓은 곳은 인텔뿐만이 아니다. 구글과 아마존, 메타 등 빅테크(대형 IT기업)이 잇따라 자체 AI칩을 출시하고 있다. 삼성전자도 연내 추론에 특화된 AI반도체 마하-1을 선보이겠다고 밝혔다. 빅테크들의 AI 칩 경쟁이 가열되고 그 가운데 HBM의 성능이 곧 AI가속기의 성능으로 이어지면서 HBM 중요성도 더욱 높아지고 있다.

글로벌 HBM 시장은 국내 기업인 삼성전자와 SK하이닉스가 양분 중이다. 두 회사 모두 HBM발 호재가 불어오면서, 개발과 양산에 힘을 쏫고 있다. HBM은 빠른 속도와 전성비가 핵심이다. 빠르게 대량의 데이터를 처리하는 동시에 전기를 먹는 '하마'가 되지 않아야 하기 때문이다.


SK하이닉스는 HBM3E 8단 적층 24GB를 지난 1월 세계 최초 초도 양산시작해 3월부터 본격 공급 중이다. 곽노정 SK하이닉스 사장은 올해 주주총회에서 "지난해 전체 D램 판매량 중 HBM 판매 빗그로스(비트 단위로 환산한 출하량 증가율)는 한자리 수에서 올해 두자릿수로 증가할 것"이라고 밝혔다. SK하이닉스는 HBM 캐파를 올해 지난해 대비 2배 늘리기로 했다.

기술력에 더해 적기 공급 중요성도 높아지고 있다. 삼성전자는 현재 양산과 고객사 공급 측면에서 SK하이닉스에 다소 뒤지는 모습이지만, 월등한 생산력과 턴키(일괄 수주·생산)을 강점으로 부지런히 뒤쫓고 있다. 업계는 올해 HBM 수요 대비 공급이 절반에 불과할 것으로 보고 있다. 또 삼성전자는 지난 2월 세계 최초로 HBM3E 12단 적층 36GB를 개발했다. 경계현 삼성전자 DS(디바이스솔루션) 부문장 사장은 "AI 애플리케이션에선 고용량 HBM이 경쟁력이기 때문에, 고객이 HBM3E 12단을 더 찾고 있다"며 "HBM의 리더십이 우리엑 오고 있다"고 말했다.

메모리반도체 업계 관계자는 "현재로선 SK하이닉스가 HBM에서 앞서나가고 있다"면서도 "삼성전자가 따라오면 우월한 캐파를 활용해 압도할 수 있다"고 말했다.
TOP