AI 칩 90% 독점한 엔비디아, 그 중심엔 '쿠다'…장기 집권의 무기

머니투데이 오진영 기자 2024.02.27 15:21
글자크기

[MT리포트]AI시대 '핫템' HBM, 2라운드 승자는 누구⑤

편집자주 영원한 '형님'은 없다. 1인자 삼성전자와 후발주자 SK하이닉스·마이크론 구도는 옛말이 됐다. AI 열풍이 몰고 온 HBM 바람엔 SK하이닉스가 먼저 탑승해 앞서 나가고 있다. 최근 메모리반도체 업계에서 가장 핫한 키워드 HBM이 가져온 메모리 빅3 판도 변화를 살펴본다.

/사진 = 이지혜 디자인기자/사진 = 이지혜 디자인기자


시가총액 2조달러(한화 약 2660조원)를 돌파한 엔비디아는 AI(인공지능) 반도체 시장을 주무르는 공룡 기업이다. 지난해 영업이익은 전년 대비 3배 넘게 증가했고 AI 칩 점유율은 90%를 웃돈다. 삼성전자·SK하이닉스 등 대형 메모리 기업도 엔비디아에서 얼마나 많은 주문을 받았느냐가 성공의 척도가 됐을 정도다. 엔비디아는 어떻게 'AI 천하'의 선두에 섰을까.

첫손에 꼽히는 것은 엔비디아의 GPU(그래픽처리장치) 기반 소프트웨어 프로그래밍 플랫폼 '쿠다'(CUDA)다. 엔비디아는 2006년 100억달러(한화 약 13조원)를 투입해 쿠다를 개발하고, 무료로 공개했다. 무료 배포는 대부분의 AI 제품이 쿠다 사용을 전제로 개발되는 데에 큰 영향을 끼쳤다. 쿠다를 활용할 때 AI용 딥러닝 모델(정보 처리 모델)을 가장 빠르게 구동하기 때문에, 모든 AI 개발자가 쿠다로 탑을 쌓았다.



지난해 AI 열풍 속에서도 쿠다의 위상은 건재했다. 엔비디아의 그래픽카드 외 다른 제품에서 쿠다는 작동하지 않는다. AI 가속기가 보편화되면서 고성능 그래픽카드의 중요성이 확대됐지만, 80% 이상의 제품이 쿠다에 기반했기 때문에 다른 회사의 그래픽카드 사용이 어렵다. 딥러닝의 창시자로 꼽히는 제프리 힌튼 캐나다 토론토대 교수는 "쿠다 없이 딥러닝을 실행하는 것은 불가능에 가깝다"고 말했다.

결국 데이터센터를 구축하려는 고객사들은 쿠다를 쓰기 위해서는 엔비디아의 칩을 반드시 사용해야 한다. 칩을 납품하는 메모리 업체들도 AI 시장을 사실상 독점하고 있는 엔비디아에 공급량을 늘려야 하는 것이 필수적이다. 젠슨 황 엔비디아 CEO는 "2022년 한 해에만 2500만건의 쿠다가 다운로드됐다"며 "엔비디아 기술을 사용하는 대기업은 4만여개가 넘는다"고 자신했다.



당분간 쿠다 독점 체제는 견고할 전망이다. AI 개발의 핵심인 텐서플로나 파이토치 같은 프레임워크(개발용 핵심 체제)가 쿠다에서만 작동하는데다, 엔비디아 역시 이에 발맞춰 쿠다 생태계를 더 확장하고 있기 때문이다. 업계 관계자는 "쿠다를 활용하기 위해 엔비디아 칩을 사려는 대형 고객사들은 아직도 줄을 서 있다"며 "9000만원이 넘는 AI가속기 H100도 없어서 못 팔 지경"이라고 말했다.

아직 대항마가 뚜렷하지 않다는 점도 이런 시각에 힘을 더한다. 경쟁사 AMD는 지난해 말 GPU 'MI300' 시리즈와 함께 이를 지원하는 소프트웨어 플랫폼 'ROCm6'을 출시했다. 인텔과 ARM 등은 OpenCL 등 다른 그래픽카드에서도 구동이 가능한 소프트웨어에 힘을 주고 있다. 모두 쿠다 생태계를 대체하려는 의도다. 하지만 코딩의 난이도가 너무 높고 호환성·범용성이 쿠다에 못 미친다.

쿠다를 앞세운 엔비디아의 독주도 이어질 것으로 보인다. 올해 AI용 GPU인 H200과 B100의 출시를 예고했다. 여기에는 SK하이닉스의 HBM3E가 탑재된다. 엔비디아의 판매량이 늘어날수록 SK하이닉스도 신바람을 낼 수 있다. 업계 관계자는 "엔비디아의 AI 칩 판매량이 오르면 고성능 HBM의 수요도 덩달아 증가한다"며 "국내 메모리 업체들의 HBM 수주량이 올해 크게 늘 것"이라고 말했다.

TOP