"거짓도 진짜처럼" 생성AI의 그림자…규제해야? 대안은

머니투데이 변휘 기자 2023.02.11 09:00
글자크기

[MT리포트-생성 AI 시대, 한국은 어디로] 1-④

편집자주 사람처럼 대화하는 '생성AI 신드롬'이 거세다. 챗GPT 쇼크로 빅테크의 AI 개발경쟁이 불붙은 것은 물론, 우리 일상과 사회 각 분야로 AI가 빠르게 스며들고 있다. 이는 기존 관행과 질서에 상당한 변화와 충격을 몰고 왔다. 도구로서 효용성이 큰 반면, 대필과 표절 등 악용사례도 잇따른다. 생성AI 시대를 마주한 한국의 현주소와 논란, 그리고 대처법을 짚어본다.

/로이터=뉴스1/로이터=뉴스1


챗GPT가 초래한 생성AI 돌풍이 거센 가운데 오남용을 막기 위한 규제 및 안전장치의 필요성이 동시에 제기된다. 이미 현실화한 학계·교육계의 '대필' 논란은 물론 생성AI가 내놓은 창작물에 대한 저작권 논란, 가짜뉴스, 혐오 표현 등 풀어야 할 난제가 한둘이 아니다.

이른바 '할루시네이션'(hallucination, 환각)'은 대표적인 생성AI의 허점이다. 2021년까지의 데이터만 학습한 챗GPT가 '한국의 대통령'을 '문재인'이라고 답한다.



애초 오류가 있는 데이터를 학습해 엉뚱한 답변을 내놓고, 이 같은 잘못된 정보가 영구화할 수 있다. 더욱이 기존 검색엔진은 정보의 출처를 제공해 팩트체크를 할 수 있지만, 챗GPT의 답변은 출처나 근거를 따로 제시하지 않는다.

AI가 현실적 편견 및 혐오를 그대로 학습하고 보다 강화할 우려도 제기된다. 예컨대 AI를 활용한 채용 시스템이 여성 구직자를 차별하거나, 얼굴 인식 소프트웨어가 백인보다 흑인 얼굴에 부정적 인식을 드러내는 것도 마찬가지 맥락이다. 실제로 미국에서는 마이크로소프트(MS)의 챗봇이 소수자 혐오 발언을 해 논란이 됐고, 프로그래밍을 위한 자동 코드 완성 서비스가 저작권 침해 문제로 소송을 당하기도 했다.



챗GPT 개발사인 오픈AI 스스로도 이 같은 부작용 사례를 경계하며 오히려 적절한 규제의 필요성을 고민하는 표정이다. 샘 알트만 CEO는 직원들에게 '챗GTP의 성과를 과시하지 말라'고 경고했으며, 소규모 스타트업으로서 스스로 규제 방안 또는 윤리 기준을 마련하는 것을 버거워하는 것으로 전해졌다.

챗GPT 개발사도 버겁다…"규제 당국 서둘러 개입해야"
미라 무라티 오픈AI CTO/사진=소셜미디어미라 무라티 오픈AI CTO/사진=소셜미디어
미라 무라티 오픈AI CTO도 이달 5일(현지시간) 타임스지 인터뷰에서 "규제 당국은 서둘러 개입해야 한다"고 재차 강조했다. 그는 "챗GPT는 사실을 꾸며내고, 나쁜 의도를 가진 이용자들에게 얼마든지 악용될 수 있다"며 "개발자 홀로 이 문제를 해결할 순 없다"고 말했다. 또 "규제 당국이 서둘러 개입해야 한다"면서 '규제가 너무 이르지 않느냐'는 질문에도 "전혀 이르지 않다"고 거듭 강조했다.

다만 AI를 둘러싼 규제 논의는 전 세계적으로도 이제 막 발을 뗀 시점이다. 미국 백악관 과학기술정책국(OSTP)은 지난해 10월 AI 기술 개발 및 사용 과정의 부작용을 최소화하기 위한 'AI 윤리 지침'을 발표했지만, 법적 구속력이 없는 권고 수준이어서 '이빨 없는' 지침이라는 비판이 제기됐다. 국내에선 정부가 지난 2020년 말 '국가 AI 윤리 기준'을 발표했고, 현재 'AI 기본법' 제정을 추진 중이지만 규제보다는 오히려 관련 산업 육성에 무게가 실릴 것으로 보인다.


이와 비교하면 유럽은 좀 더 속도가 빠른 편이다. EU 집행위원회(EC)는 지난 2021년 4월 AI의 투명성·책임성·공정성 조항 및 고위험 AI 시스템 관련 규칙을 포함한 'AI법'을 제안했는데, 올해 시행을 목표로 논의 중인 상태다. 지난 3일 로이터 인터뷰에서 티에리 브르통 EU 내부시장 담당 집행위원은 챗GPT를 언급하면서 "AI는 큰 기회를 제공할 수 있지만 위험도 초래할 수도 있다"며 "견고한 규제 프레임워크가 필요한 이유"라고 말했다.

기술의 진보와 뒤따르는 규제를 바라보는 전문가들의 의견도 엇갈린다. 예컨대 오픈AI가 100% 통제 가능한 안전망을 갖추고 챗GPT를 만들어내는 것은 사실상 불가능한데 초기 단계의 AI 기술에 규제의 칼날을 먼저 들이대는 것은 문제라는 지적이다. 또 생성AI가 악용됐을 경우, 책임은 이용자의 몫인지 아니면 개발자의 문제인지 따지기 혼란스럽다는 지적이다.

규제 논의와 더불어 이용자가 생성AI에서 얻은 정보를 비판적으로 해석·활용할 수 있는 'AI 리터러시(문해력)'가 절실하다는 지적도 나온다. 신현우 서울과기대 박사는 "사회적 합의를 통해 허용되는 윤리적 범위를 법으로 강제할 수는 없는 일이다. 한국 사회는 앞서 '이루다 사태'를 통해서도 경험했다"며 "시민사회 스스로 윤리적 위협이 될 수 있는 요소를 점검·관리할 수 있는 'AI 리터러시' 역량이 중요하다"고 강조했다.
TOP