삼성전자가 개발한 인공지능 HBM-PIM/사진제공=삼성전자
현재 글로벌 AI 시장에서는 GPU(그래픽처리장치)의 그래픽 기능을 빼고 연산 기능을 활용해 딥러닝에 적합한 형태로 만든 GP-GPU가 가장 보편적으로 쓰인다. 학습과 추론 기능으로 AI의 '머리'를 담당하는 GPU에 기본적으로 탑재되는 것이 데이터 저장과 처리를 하는 메모리다. AI생태계 확대를 위해선 소프웨어와 서버, 반도체 기업들의 협력이 필수적인 셈이다.
막대한 용량의 데이터를 처리하기 위해선 고효율 메모리가 필요하다. D램 여러개를 수직 연결해 3D 형태로 만든 HBM(고대역폭 메모리)와 프로세싱 기능을 갖춰 속도와 성능이 월등한 PIM(지능형 메모리)이 대표적이다.
삼성전자는 지난해 12월엔 네이버와 AI반도체 솔루션 개발을 위한 업무협약(MOU)를 체결하기도 했다. 네이버는 챗GPT의 적수가 될 한국형 AI를 상반기 중 내놓겠다고 밝혔다.
SK하이닉스는 GPU업계 1위 엔비디아에 초고성능 메모리인 HBM3를 공급하고 있다. HBM3는 풀HD급 영화 163편을 1초만에 전송하는 속도를 구현한다. PIM을 적용한 차세대 D램 규격인 GDDR6 역시 개발했다. GDDR6는 연산 속도가 기존 대비 16배 빠르지만 에너지 소모는 80% 적다.
이 시각 인기 뉴스
SK하이닉스가 개발한 HBM3/사진제공=SK하이닉스
CPU(중앙처리장치)와 결합해 데이터센터에 들어가는 서버용 D램은 고부가가치로, 삼성전자와 SK하이닉스 전체 매출에서 각각 40% 안팎을 차지한다. 특히 올해는 AI산업 발전과 데이터센터의 CPU 교체 주기가 맞물리면서 서버용 D램 수요는 더욱 늘어날 수 있다. 데이터센터들은 통상적으로 신규 CPU가 나오면 이를 교체하면서 최적화된 규격의 D램도 함께 바꾸는데, 올해 초 인텔이 CPU인 사파이어 래피즈 신제품을 출시하면서 차세대 서버용 D램 규격인 DDR5 탑재도 늘어날 전망이다. DDR5는 기존의 DDR4보다 데이터 전송속도는 2배 빠르고 전력 효율은 더 높다. 가격도 30~50%가량 높아 메모리반도체 업계의 수익성 확대도 기대할 수 있다.
시장조사업체 가트너는 AI반도체 시장 규모가 올해 553억달러, 2026년엔 861억달러 규모에 이를 것이라 전망했다.
국내 반도체 업계 관계자는 "인공지능 시스템은 대량의 데이터를 굉장히 빠르게 처리하는 것이 관건"이라며 "시스템 용량을 키워 이를 도와줄 고성능 메모리반도체가 필수적으로, 소프트웨어뿐만 아니라 서버, 반도체 회사 모두 협력할 때 AI 생태계가 완성될 수 있다"고 말했다.