韓, 세계 초거대 AI 열강 '눈독'…구한말 비극 반복 않으려면

머니투데이 윤지혜 기자 2023.07.03 08:36
글자크기

[AI 리터러시 키우자 ④-1] 하정우 네이버클라우드 AI 이노베이션 센터장

편집자주 전례 없는 AI 기술의 발전이 우리 일상을 뒤흔들고 있다. 사회와 경제 시스템, 나아가 인류의 삶 자체가 뒤바뀔 조짐이다. 우려와 공포감도 크다. 그러나 AI와의 공존은 피할 수 없는 현실이다. 결국 AI에 대한 정확한 이해를 통해 사회적 혼선과 불안을 줄여야 한다. 도구로서 AI를 정의하고 윤리적 활용법, 인간과 AI의 역할을 구분하는 것도 시급하다. 이에 머니투데이는 국민적 AI 이해도와 활용 능력을 높이기 위한 'AI 리터러시 키우자' 연중 캠페인을 시작한다.

하정우 네이버클라우드 AI 이노베이션 센터장을 최근 경기 성남시 네이버 1784에서 만나 인터뷰했다. /사진=네이버하정우 네이버클라우드 AI 이노베이션 센터장을 최근 경기 성남시 네이버 1784에서 만나 인터뷰했다. /사진=네이버


"구한말(19세기 말~20세기 초)처럼 한국은 글로벌 열강의 초거대 AI 전쟁터가 됐습니다. 기업과 학계 정부가 힘을 모아 AI 경쟁력을 높여야 디지털 주권을 지킬 수 있습니다."

하정우 네이버클라우드 AI이노베이션 센터장은 한국이 글로벌 빅테크의 초거대 AI 전장이 될 것으로 내다봤다. 구글이 AI 챗봇 '바드'의 제1외국어로 한국어 버전을 우선 출시한데다, 외산 AI의 문제점이었던 한국어 처리속도·비용문제도 거의 해결해서다. 지난달 한국을 방문한 샘 올트먼 오픈AI CEO도 "챗GPT 사용 시 영어 대비 한국어 비용부담이 크다"는 지적에 "개선하겠다"고 답했다. 글로벌 검색엔진의 패전지(敗戰地)인 한국을 AI로 재공략하겠다는 의미다.



이에 맞서 네이버(NAVER (194,600원 ▲5,800 +3.07%))는 오는 8월24일 차세대 초거대 AI 언어모델(LLM) '하이퍼클로바X'를 공개한다. 2021년 선보인 '하이퍼클로바'보다 한국어와 영어 학습량을 대폭 늘리고 파라미터(매개변수)는 대중소로 나눴다. 하이퍼클로바(2040억개)가 GPT-3(1750억개) 대비 파라미터는 290억개 더 많고 한국어 학습량은 6500배 이상인 점을 고려하면 하이퍼클로바X는 "세계에서 한국어를 제일 잘하면서 영어도 유창한 AI 모델"이 될 전망이다.

그러나 앞선 기술력과 막대한 자본을 앞세운 글로벌 빅테크의 진격은 불안요소다. 단순 국내 1위 네이버 입지를 넘어 데이터 주권과 사회 가치관까지 흔들릴 수 있어서다. 더욱이 시장을 선점한 글로벌 빅테크는 "AI를 규제해달라"라며 후발주자의 성장 사다리를 걷어차는 형국이다. 안으로는 초거대 AI를 육성하되, 국제사회에선 중재자로서 정부 역할이 중요해졌다. 하 센터장이 기업·학계뿐 아니라 정부도 힘을 모아 달라고 강조한 배경이다.



"초거대 AI 시장, 국가별 각축전 벌여야"
셰이크 사우드 술탄 빈 모하메드 알 카시미 왕자 등 UAE 샤르자 왕실 고위대표단이 네이버 1784를 방문한 모습. /사진=네이버  셰이크 사우드 술탄 빈 모하메드 알 카시미 왕자 등 UAE 샤르자 왕실 고위대표단이 네이버 1784를 방문한 모습. /사진=네이버
-글로벌 초거대 AI 시장 판세를 어떻게 예상하나.

▶미래를 예측하긴 어렵지만, 구글과 애플이 양분한 모바일 앱 생태계처럼 돼선 안 된다. 더욱이 초거대 AI는 데이터가 AI를 만들고 AI 서비스로 데이터가 생산되는 '피드백 루프' 구조여서 한 번 종속되면 돌이킬 수 없다. 서구의 가치관과 사회관이 내재된다는 위험도 있다. 각 지역의 특성을 반영한 '소버린(자주적인)AI' 체제로 경쟁 관계가 형성돼야 한다.

-자국 초거대 AI 우대정책이 갈라파고스를 만들 수 있다는 우려도 있다.


▶품질 나쁜 AI를 쓰라는 게 아니다. 외산보다 경쟁력 있는 AI를 무조건 만들겠다. 지금도 한국어 기준으론 GPT-3.5보다 유능하다. 네이버가 최상위 컨퍼런스에 발표한 하이퍼클로바 관련 논문만 15개가 넘는다. 최상위 컨퍼런스에서 논문이 채택된다는 건 세계 최고 연구자들이 기술의 신규성과 원천성을 인정했다는 의미다.

다만 정부가 초거대 AI 학습용 공공데이터를 대량 공개하기로 했는데, 국내 기업엔 큰 도움이지만 구글·오픈AI도 함께 쓴다면 문제다. 투자 규모가 달라 국내 기업보다 데이터를 잘 활용할 가능성이 높다. 자칫 기술 종속으로 이어질 수 있다. 우리의 경쟁력 제고를 위한 자원이 경쟁국의 총탄이 되지 않도록 안전장치가 필요하다. 쇄국하자는 게 아니라 최소한의 경쟁 체제를 만들자는 거다.

-일본·동남아·중동 등 비영어권으로의 초거대 AI 수출 진행 상황은 어떤가.

▶최근 셰이크 사우드 왕자(샤르자디지털청장)가 미팅에서 "우리는 미국 기술에 종속되는 걸 원하지 않는다"고 하더라. 네이버를 포함해 경쟁력 있는 한국 기업에 충분한 기회가 될 수 있다. 본인들의 스탠더드를 고집하는 글로벌 빅테크와 달리 네이버는 해당 국가의 AI·데이터 정책을 준수하며 만드는 형태로 매력이 있지 않을까 기대한다.

소버린AI의 핵심은 현지 기업·연구자와의 파트너십 구축이다. 이런 점에서 일본은 라인·야후재팬과의 협업경험이 상당한 도움이 될 것으로 보인다. 태국·대만·인도네시아에서도 라인 이용자가 많아 중동 대비 진출이 수월하다. 중동에선 사우디아라비아와 세부사항을 논의하는 단계이고 최근 아티르 알 그레이 리 이라크 무역부 장관도 네이버를 다녀갔다.

"정부, 글로벌 규제논의 초기 합류해야"
네이버가 하이퍼클로바 기반으로 선보인 쇼핑라이브 큐시트 자동생성 솔루션. /사진=네이버네이버가 하이퍼클로바 기반으로 선보인 쇼핑라이브 큐시트 자동생성 솔루션. /사진=네이버
-국제원자력기구(IAEA) 같은 국제기구를 만들어 초거대 AI를 규제하자는 목소리가 거세다.

▶핵무기와 달리 AI는 실제 경제성장에 기여한다. 윤석열 대통령도 '파리 이니셔티브'를 발표했지만, 글로벌 규제논의에 일찍 참여해 우리가 성장할 방향으로 판을 짜야 한다. 초거대 AI 생태계를 갖춘 나라는 한국·미국·중국밖에 없다는 점에서 발언권을 가질 수 있다. 남이 짜놓은 판에 뒤늦게 몸을 끼워 맞추지 않으려면 앞으로의 1~2년이 진짜 중요하다.

-자국 초거대 AI를 육성하려면 어떤 진흥책이 필요한가.

▶초거대 AI는 투자 비용이 막대하다 보니 특정 기업만의 노력으론 수십조원을 쏟아붓는 구글과 경쟁하기 쉽지 않다. 공공 영역에서 활용을 전제로 정부가 직접 투자하거나 R&D 비용에 대한 세제 혜택을 제공하는 방안 등이 필요하다. 국민들이 초거대 AI를 체험할 수 있도록 사용료를 지원해주는 등 AI 리터러시 제고를 위한 예산 마련도 좋은 대안이 될 수 있다.

-국내에서 네이버 독점이 이뤄지는 것 아니냐는 지적도 나온다.

▶우리나라 정부가 글로벌 빅테크를 제어할 방법은 없다. 청문회에 불러도 'I can't speak Korean' 하면 속수무책이다. 반면 네이버엔 여러 당근과 채찍을 쓸 수 있다는 점에서 우려하는 일은 적을 거다. 또 이미 글로벌 빅테크가 국내 모바일 앱 사용·체류시간 상위권을 차지하고 있는데, 한국 기업 중 네이버가 1등이라고 독점으로 볼 수 있는지도 의문이다.

-하이퍼클로바X는 B2B 시장을 겨냥했다. GPT-4 대비 강점은?

▶기업 특성에 맞는 AI 서비스를 만들려면 하이퍼클로바X나 GPT-4 같은 LLM에 자체 데이터를 추가 학습시키는 파인튜닝이 필요한데, 대부분 문서가 기업 기밀이다. 글로벌 빅테크가 개별 기업의 데이터를 학습시킬 인프라를 제공할지도 의문이지만, 보안 문서를 해외사업자의 클라우드에 올리는 게 적합한지도 의견이 분분하다.

반면 네이버는 하이퍼클로바X에 파트너 데이터를 학습시켜 전문분야 이해도도 높으면서 한국어와 영어를 잘하는 AI 서비스를 구현할 수 있다. 데이터 보안 문제를 해결하기 위해 '뉴로 클라우드'를 제공한다. 고객사의 데이터센터에 장비를 설치해 네이버클라우드 플랫폼과 연동하는 하이브리드 클라우드 환경으로 데이터 보안 문제를 해결할 수 있다.

"LLM만 가능한 일 있어…파라미터는 공개 안 해"
-한때 초거대 AI 시장은 모델크기 경쟁이 한창이었는데 최근엔 어떤가.
(천재 해커로 알려진 조지 하츠는 최근 GPT-4가 2200억개 파라미터로 구성된 모델 8개가 혼합한 구조라고 언급했다.)
▶최근엔 모델 크기를 무한정 키우기보단 파라미터 5000억개 아래에서 좀 더 똑똑하게 만들려는 추세다. 메타의 '라마'처럼 상대적으로 작은 sLLM(소형언어모델)을 활용해 서비스를 만드는 기업도 있다. 다원화 구조로 가는 것이다. 그러나 긴 대화나 복잡한 보고서 분석은 작은 모델론 역부족이다. sLLM이 LLM의 모든 걸 대체할 수 있는 건 아니다.

-구글·오픈AI는 초거대 AI 모델과 파라미터 등을 공개하지 않는 추세다.
▶하이퍼클로바X도 (구글·오픈AI처럼) 전체 모델은 공개하지 않고 API나 서비스만 제공할 예정이다. 파라미터도 밝히지 않는다. 라마처럼 공개 데이터로만 학습한 게 아니라 블로그 콘텐츠 등 네이버만 활용할 수 있는 데이터도 많아서다. 대신 파트너사의 데이터를 학습시킬 수 있는 API까지 제공해 중소기업도 고성능 AI로 성장 기회를 만들 수 있도록 하겠다.

-초거대 AI 연구가 일부 기업 중심의 폐쇄적 환경으로 바뀌는 것 아닌가.
▶투트랙으로 가게 될 거다. 구글이 LLM '버트'를 선보이면서 소수 기업 중심으로 연구가 재편될 것 같았으나 오히려 관련 논문은 더 많이 나왔다. 편향성이나 평가방법 등 파생되는 연구 주제가 훨씬 많아져서다. 모델 크기를 키우고 성능을 높이는 주제는 특정 기업이 이끌 수 있지만, 모델 내부를 들여다보지 않고도 공개된 라마 등을 통해 외부에서 할 수 있는 연구주제도 늘고 있다.
TOP