'AI혁명의 시대' 헤쳐나가려면…글로벌 전문가 10인의 통찰

머니투데이 변휘 기자 | 2023.08.06 15:40

[AI 리터러시 키우자⑨-1]챗GPT 이후, 글로벌 담론의 변화

편집자주 | 전례 없는 AI 기술의 발전이 우리 일상을 뒤흔들고 있다. 사회와 경제 시스템, 나아가 인류의 삶 자체가 뒤바뀔 조짐이다. 우려와 공포감도 크다. 그러나 AI와의 공존은 피할 수 없는 현실이다. 결국 AI에 대한 정확한 이해를 통해 사회적 혼선과 불안을 줄여야 한다. 도구로서 AI를 정의하고 윤리적 활용법, 인간과 AI의 역할을 구분하는 것도 시급하다. 이에 머니투데이는 국민적 AI 이해도와 활용 능력을 높이기 위한 'AI리터러시 키우자' 연중 캠페인을 시작한다.

지난해 11월30일 오픈AI의 챗GPT 출시로 AI(인공지능)를 둘러싼 글로벌 담론은 '기술·확산'에서 '일상화 대응'으로 무게추가 빠르게 옮겨가고 있다. 챗GPT가 인간의 일상에 AI가 파고드는 분기점으로 작용하면서 이전에는 주로 기술 개발, 성능 향상, 도입 전략 등을 고민하던 AI 전문가들이 이제는 거버넌스·규범, 책임성, AI 리터러시 등의 필요성을 주목하고 있는 흐름이다. 생성형AI가 바꿀 인간의 미래에 대한 사회적 기대가 커졌지만, 그 못지않게 '안전하게 사용하는 법'이 중요하다는 통찰이다.

6일 한국지능정보사회진흥원(NIA)의 '글로벌 AI 전문가 10인이 진단하는 AI 현상과 방향' 보고서는 글로벌 AI전문가 10인의 발언에서 지속해서 언급되는 AI 관련 키워드를 도출하고, 이 같은 담론의 변화를 관찰했다. 김규리 NIA 선임연구원은 2012년 1월부터 올 6월까지 'AI전문가'를 의미하는 키워드에 가장 많이 언급된 인물 중 AI생태계를 두루 포함하도록 선정하고, 챗GPT 공개 전후 이들의 인터뷰·기고·강연·보도 등을 분석했다.

분석 대상 10인은 △앤드류 응 스탠포드대 교수('구글 브레인' 설립자)△얀 르쿤 뉴욕대 교수(메타 수석 AI과학자) △데미스 허사비스 구글 딥마인드 CEO(최고경영자) △페이페이 리 스탠포드대 인간중심AI 연구소장 △제프리 힌튼 전 구글 부사장 △개리 마커스 뉴욕대 심리학·신경과학 명예교수 △케이트 크로포드 AI NOW 설립자 △샘 알트먼 오픈AI CEO △스튜어트 러셀 UC 버클리대 교수 △빌 게이츠 마이크로소프트(MS) 창립자다.


"AI 리터러시=보편적 교육"…글로벌 '대세'로


(왼쪽부터) 앤드류 ㄹ응 스탠포드대 교수△얀 르쿤 뉴욕대 교수, 데미스 허사비스 구글 딥마인드 CEO, 페이페이 리 스탠포드대 인간중심AI 연구소장, 제프리 힌튼 전 구글 부사장.
챗GPT 이전 2010년대의 AI 관련 담론은 주로 핵심기술 발전과 확산에 대한 기대에 초점이 맞춰져 있었지만, 전문 분야와 기업용 솔루션을 중심으로 활용도가 제한돼 개인이 체감할 수 있는 영향은 미미했다. 반면 오픈AI의 챗GPT 출현으로 누구나 스마트폰 또는 PC에서 AI를 활용할 수 있게 되면서 급격한 사회적 변화를 초래했다.

이에 개발자부터 심리학자, 사회과학자 등 다방면의 전문가들이 AI의 안전하고 효과적인 활용에 대한 다양한 이슈를 제기하고 있다. 특히 전문가들마저 AI의 미래에 대한 기대와 우려가 엇갈렸다. 페이페이 리는 "생성형 AI 개발이 인류 난제 해결의 '위대한 변곡점'이 될 것"이라고 말했지만, 제프리 힌튼은 AI의 위험성을 경고하며 "대규모언어모델(LLM) 학습을 일시 중지할 것"을 권고하기도 했다.

AI 혁명을 마주하며 전문가들이 강조한 핵심 키워드는 'AI 리터러시의 강화'다. AI 리터러시 측면에서는 모든 이용자가 AI로부터 제공받는 정보를 비판적으로 이해·판단할 수 있도록 '보편적 AI 교육'으로 관점의 대전환이 필요하다는 진단이다. 앤드류 응은 "모든 학생에게 국가 차원의 AI 리터러시 교육을 제공하고, AI로 일자리를 잃은 사람들을 재교육할 방안을 마련해야 한다"고 조언했으며, 데미스 허사비스도 "AI에 쉽게 속지 않기 위해서는 일반 사용자 대상의 AI 리터러시 교육을 확대할 필요가 있다"고 강조했다.

실제로 핀란드는 2019년부터 전체 인구의 1%에 AI의 기초교육을 한다는 '1% 계획'을 시작했고, 이후 EU(유럽연합) 인구의 1% 교육으로 목표치를 올려 잡았다. 이처럼 AI 리터러시를 미래 필수 역량으로 보고, 교육에 대한 접근성을 국가가 보장하는 '핀란드식 평생학습'이 세계적 표준으로 확산하는 추세다.


'글로벌 거버넌스 및 규범의 확립'은 또 다른 과제다. 제프리 힌튼은 "악용을 막기 위해 AI를 감독할 국제기구를 설립해야 한다"고 말했고, 개리 마커스는 "AI에 적용될 법·문화·사회적 맥락의 통일성 확보를 위해 중립적이고 비영리적인 AI 국제기구의 관리가 필요하다"고 말했다. 샘 알트먼은 "AI의 영향력은 원자력과 유사하다"면서 "선제적으로 위험을 줄이고 리소스 사용량 등을 관리할 국제 감독기관이 필요하다"고 강조했다. 데미스 허사비스도 "AI는 세계 어디서나 사용할 수 있는 만큼, 전 세계에 같은 규범을 적용해야 한다"고 밝혔다.


챗GPT 이후…"AI는 원자력, 국제기구·검증기관 필요"


(왼쪽부터) 개리 마커스 뉴욕대 심리학·신경과학 명예교수, 케이트 크로포드 AI NOW 설립자, 샘 알트먼 오픈AI CEO, 스튜어트 러셀 UC 버클리대 교수, 빌 게이츠 마이크로소프트(MS) 창립자.
AI의 신뢰도를 높일 수 있도록 데이터·알고리즘 정보를 투명하게 공개해야 한다는 목소리도 커졌다. 케이트 크로포드는 미 FDA(식품의약국)가 온라인에 임상시험 정보를 공개해 국민이 피드백에 참여할 수 있도록 하는 과정을 예시로 들며, "AI에도 이런 과정을 도입해야 한다"고 주장했다. 아울러 전문가들은 AI의 안전성을 사전에 검증하는 방법으로 사전 테스트, 영향평가, 라이선스 방식 등을 제안하고 있다.

얀 르쿤은 "모든 사람이 AI 기술을 활용할 수 있도록 오픈소스 방식으로 공개해 AI의 잠재적 위험을 완화할 수 있다"고 봤고, 스튜어트 러셀은 "개발자들은 배포 전 AI가 견고하고, 예측할 수 있으며, 사회에 위험을 초래하지 않는다는 것을 증명해야 한다"고 지적했다. 샘 알트먼은 "무분별한 AI 개발을 막기 위한 'AI 라이선스' 제도, 또 이를 전담 운영할 전문기관 설치"를 제안했다. 케이트 크로포드 역시 "AI의 발전 속도를 따라갈 수 있는 기술적 전문성과 AI가 사용되는 사회적 맥락에 대한 지식을 갖춘 AI 안전성 검증 전문기관이 필요하다"고 말했다.

AI로 일자리를 잃더라도 국민의 기초적인 생활을 보장하는 '기본소득' 필요성도 일부 전문가를 중심으로 제기됐다. 이 같은 맥락에서 앤드류 응은 "AI의 가장 큰 위험 요인은 많은 일자리를 없앨 수 있다는 점"이라며 "사회가 이들을 어떻게 돌볼 것인지 고민해야 한다"고 말했고, 빌 게이츠는 "사회문제 해결 등 AI가 공익을 위해 활용되기 위해 지속적인 지원과 관심을 가져야 한다"고 강조했다.

이와 함께 AI 생태계의 질적 변화도 떠오르는 키워드다. 우선 LLM의 비용적 효율성 측면 한계를 극복하기 위해 앤드류 응은 상대적으로 적은 데이터로 개발할 수 있는 '데이터 중심 AI(Data-centric AI)'를 대안으로 제시했다. 모델(알고리즘) 개선보다 지속적인 데이터 품질 개선으로 AI의 성능을 높이는 접근법이다. 샘 알트먼도 질적으로 개선된 데이터를 학습시키는 방식으로 LLM을 경량화해 활용도를 높이는 방안을 언급했다.

베스트 클릭

  1. 1 "네 남편이 나 사랑한대" 친구의 말…두 달 만에 끝난 '불같은' 사랑 [이혼챗봇]
  2. 2 노동교화형은 커녕…'신유빈과 셀카' 북한 탁구 선수들 '깜짝근황'
  3. 3 '6만원→1만6천원' 주가 뚝…잘나가던 이 회사에 무슨 일이
  4. 4 "바닥엔 바퀴벌레 수천마리…죽은 개들 쏟아져" 가정집서 무슨 일이
  5. 5 "곽튜브가 친구 물건 훔쳐" 학폭 이유 반전(?)…동창 폭로 나왔다