"이 사람 탈락, 여자라서"...챗GPT 회사마저 "규제 만들라" 호소

머니투데이 변휘 기자, 황국상 기자, 강주헌 기자 2023.02.12 08:00
글자크기

[MT리포트-생성AI 시대, 한국은 어디로 1](下)

편집자주 사람처럼 대화하는 '생성AI 신드롬'이 거세다. 챗GPT 쇼크로 빅테크의 AI 개발경쟁이 불붙은 것은 물론, 우리 일상과 사회 각 분야로 AI가 빠르게 스며들고 있다. 이는 기존 관행과 질서에 상당한 변화와 충격을 몰고 왔다. 도구로서 효용성이 큰 반면, 대필과 표절 등 악용사례도 잇따른다. 생성AI 시대를 마주한 한국의 현주소와 논란, 그리고 대처법을 짚어본다.

"거짓도 진짜처럼" 생성AI의 그림자…규제해야? 대안은
/로이터=뉴스1/로이터=뉴스1


챗GPT가 초래한 생성AI 돌풍이 거센 가운데 오남용을 막기 위한 규제 및 안전장치의 필요성이 동시에 제기된다. 이미 현실화한 학계·교육계의 '대필' 논란은 물론 생성AI가 내놓은 창작물에 대한 저작권 논란, 가짜뉴스, 혐오 표현 등 풀어야 할 난제가 한둘이 아니다.

이른바 '할루시네이션'(hallucination, 환각)'은 대표적인 생성AI의 허점이다. 2021년까지의 데이터만 학습한 챗GPT가 '한국의 대통령'을 '문재인'이라고 답한다.



애초 오류가 있는 데이터를 학습해 엉뚱한 답변을 내놓고, 이 같은 잘못된 정보가 영구화할 수 있다. 더욱이 기존 검색엔진은 정보의 출처를 제공해 팩트체크를 할 수 있지만, 챗GPT의 답변은 출처나 근거를 따로 제시하지 않는다.

AI가 현실적 편견 및 혐오를 그대로 학습하고 보다 강화할 우려도 제기된다. 예컨대 AI를 활용한 채용 시스템이 여성 구직자를 차별하거나, 얼굴 인식 소프트웨어가 백인보다 흑인 얼굴에 부정적 인식을 드러내는 것도 마찬가지 맥락이다. 실제로 미국에서는 마이크로소프트(MS)의 챗봇이 소수자 혐오 발언을 해 논란이 됐고, 프로그래밍을 위한 자동 코드 완성 서비스가 저작권 침해 문제로 소송을 당하기도 했다.



챗GPT 개발사인 오픈AI 스스로도 이 같은 부작용 사례를 경계하며 오히려 적절한 규제의 필요성을 고민하는 표정이다. 샘 알트만 CEO는 직원들에게 '챗GTP의 성과를 과시하지 말라'고 경고했으며, 소규모 스타트업으로서 스스로 규제 방안 또는 윤리 기준을 마련하는 것을 버거워하는 것으로 전해졌다.

챗GPT 개발사도 버겁다…"규제 당국 서둘러 개입해야"

미라 무라티 오픈AI CTO/사진=소셜미디어미라 무라티 오픈AI CTO/사진=소셜미디어
미라 무라티 오픈AI CTO도 이달 5일(현지시간) 타임스지 인터뷰에서 "규제 당국은 서둘러 개입해야 한다"고 재차 강조했다. 그는 "챗GPT는 사실을 꾸며내고, 나쁜 의도를 가진 이용자들에게 얼마든지 악용될 수 있다"며 "개발자 홀로 이 문제를 해결할 순 없다"고 말했다. 또 "규제 당국이 서둘러 개입해야 한다"면서 '규제가 너무 이르지 않느냐'는 질문에도 "전혀 이르지 않다"고 거듭 강조했다.


다만 AI를 둘러싼 규제 논의는 전 세계적으로도 이제 막 발을 뗀 시점이다. 미국 백악관 과학기술정책국(OSTP)은 지난해 10월 AI 기술 개발 및 사용 과정의 부작용을 최소화하기 위한 'AI 윤리 지침'을 발표했지만, 법적 구속력이 없는 권고 수준이어서 '이빨 없는' 지침이라는 비판이 제기됐다. 국내에선 정부가 지난 2020년 말 '국가 AI 윤리 기준'을 발표했고, 현재 'AI 기본법' 제정을 추진 중이지만 규제보다는 오히려 관련 산업 육성에 무게가 실릴 것으로 보인다.

이와 비교하면 유럽은 좀 더 속도가 빠른 편이다. EU 집행위원회(EC)는 지난 2021년 4월 AI의 투명성·책임성·공정성 조항 및 고위험 AI 시스템 관련 규칙을 포함한 'AI법'을 제안했는데, 올해 시행을 목표로 논의 중인 상태다. 지난 3일 로이터 인터뷰에서 티에리 브르통 EU 내부시장 담당 집행위원은 챗GPT를 언급하면서 "AI는 큰 기회를 제공할 수 있지만 위험도 초래할 수도 있다"며 "견고한 규제 프레임워크가 필요한 이유"라고 말했다.

기술의 진보와 뒤따르는 규제를 바라보는 전문가들의 의견도 엇갈린다. 예컨대 오픈AI가 100% 통제 가능한 안전망을 갖추고 챗GPT를 만들어내는 것은 사실상 불가능한데 초기 단계의 AI 기술에 규제의 칼날을 먼저 들이대는 것은 문제라는 지적이다. 또 생성AI가 악용됐을 경우, 책임은 이용자의 몫인지 아니면 개발자의 문제인지 따지기 혼란스럽다는 지적이다.

규제 논의와 더불어 이용자가 생성AI에서 얻은 정보를 비판적으로 해석·활용할 수 있는 'AI 리터러시(문해력)'가 절실하다는 지적도 나온다. 신현우 서울과기대 박사는 "사회적 합의를 통해 허용되는 윤리적 범위를 법으로 강제할 수는 없는 일이다. 한국 사회는 앞서 '이루다 사태'를 통해서도 경험했다"며 "시민사회 스스로 윤리적 위협이 될 수 있는 요소를 점검·관리할 수 있는 'AI 리터러시' 역량이 중요하다"고 강조했다.

묻지도 않고 내가 쓴 리뷰·댓글도 '싹쓸이'…"챗GPT, 악몽될 수도"
/사진제공=이미지투데이/사진제공=이미지투데이
"챗GPT는 개인정보 데이터(Data Privacy)에는 악몽과도 같다. 단 한 번이라도 온라인에 포스팅한 적이 있다면 당신도 우려해봐야 한다."

연일 이슈를 몰고 다니는 챗GPT에 대해 불편한 시선을 보내는 이들도 늘고 있다. 호주 시드니대 비즈니스스쿨의 유리 겔(Uri Gal) 교수는 최근 더컨버세이션에 올린 기고문을 통해 빅테크 기업들이 AI(인공지능)을 두고 군비경쟁을 본격화하는 과정에서 개인정보와 관련한 위협이 경시되고 있다는 점을 지적했다.

겔 교수에 따르면 오픈AI가 챗GPT의 성능 고도화를 위해 활용한 단어의 수는 무려 3000억개에 이른다. 이는 출판된 서적이나 기사를 비롯해 각종 웹사이트 및 SNS(소셜미디어) 포스팅들이 있다. 여기에는 동의 없이 수집한 개인정보도 당연히 포함돼 있다.

겔 교수는 "블로그 게시물이나 제품 리뷰를 작성했거나 온라인 기사에 댓글을 달았다면 이 정보는 챗GPT에 의해 소비됐을 가능성이 높다"며 "챗GPT는 우리 중 그 누구에게도 우리의 정보를 사용할 수 있는지를 묻지 않았다"고 했다.

그는 "오픈AI는 더 빠른 응답시간과 새로운 기능에 대한 우선 접근권을 보장하는 유료 모델을 출시할 계획을 내놨고 이를 통해 오픈AI는 2024년까지 10억달러(약 1조2600억원) 규모의 수익을 창출할 것으로 예상된다"며 "오픈AI의 기업가치는 지난해 대비 2배 수준인 290억달러(약 36조6300억원)로 최근 인정받기도 했다"고 했다.

또 "오픈AI는 인터넷에서 스크랩한 데이터에 대해 비용을 지불하지 않았고 이를 생성한 개인이나 웹사이트 운영자, 기업은 아무런 보상을 못 받았다"며 "우리의 승인 없이 수집되고 사용된 데이터가 없었더라면 오픈AI의 기업가치 상승, 수익 전망은 그 어느 것도 가능하지 않았을 것"이라고 했다.

특히 오픈AI가 사용자의 IP(인터넷주소)와 브라우저 타입 및 설정, 사용자가 주로 사용하는 기능 및 수행하는 작업과 같은 웹사이트 활동 데이터까지 수집한다고 비판했다. 그는 "오픈AI는 웹사이트에서의 사용자 검색활동 등 정보를 시간대별로 수집하고 있다"며 "놀랍게도 오픈AI는 자신들이 수집한 사용자 개인정보를 당사자에게 알리지 않고 불특정 3자에게 제공할 수 있다고 밝히고 있다"고 지적했다. 사용자들이 자신의 정보가 오픈AI에 저장돼 있는지 확인하고 필요시 삭제를 요청할 수 있는 절차도 제공되지 않는다는 점도 거론했다.

실제 오픈AI는 저작권 침해와 관련해 법적 분쟁에 직면해 있다. 더버지(the Verge) 등 외신에 따르면 지난해 11월 오픈AI와 깃허브, MS(마이크로소프트) 등 3개사를 대상으로 한 집단소송이 제기됐다. 오픈AI 등은 법원이 원고들의 주장을 기각해달라는 의견서를 내기도 했다.

오픈AI의 GPT 기술을 이용해 만든 깃허브의 코파일럿(Copilot) 프로그램은 AI 기반 자동 코딩 프로그램이다. 깃허브는 2018년 MS에 인수된 바 있다.

쟁점은 코파일럿을 학습시키는 과정에서 기존 개발자들이 깃허브에 올렸던 수십억 줄 규모의 코딩 저작권을 침해했는지 여부다. 원고들은 오픈AI 등의 행태에 대해 "전례 없는 규모의 소프트웨어 해적질"이라고 지적한다. 이에 오픈AI와 깃허브 등은 원고들이 되레 오픈소스 원칙을 훼손하고 있다고 주장한다. 오픈소스 형태로 개발자들이 자발적으로 공유한 프로그램에 대해 저작권 침해를 운운하는 자체가 오픈소스 원칙과 배치된다는 것이다. 이 소송이 어떻게 진행될지에 따라 오픈AI의 행보에 큰 변화가 생길 수도 있다는 전망이 나온다.

차별 조장하는 인공지능이 온다?…"인권영향평가로 선제 대응"

"이 사람 탈락, 여자라서"...챗GPT 회사마저 "규제 만들라" 호소
# Q2-2-1. 인공지능 시스템이 도입, 활용될 경우 시민들의 인권에 미칠 수 있는 부정적인 영향 혹은 위험은 무엇입니까.
Q4-3-2. 인공지능 시스템이 의도한 대로 작동하지 않거나 인권에 미치는 관련된 책임을 명확히 하고 인공지능 시스템을 개선하며 부정적 영향을 완화하기 위해 필요한 절차를 수립했습니까.

최근 국가인권위원회가 공개한 '인공지능(AI) 인권영향평가 도입 방안' 연구용역보고서에 담긴 AI 인권영향평가도구안의 문항이다. '챗GPT' 등 AI 기술 고도화가 가져올 인권 침해를 선제적으로 따져본다는 취지다. AI 발전과 확산으로 인한 개인정보·사생활에 관한 권리 침해, 차별 등 인권 문제에 대한 우려를 반영했다.

10일 인권위에 따르면 한동대산학협력단은 연구용역 보고서를 통해 AI 인권영향평가도구안을 개발해 인권위에 제출했다. 도구안에는 AI 기술과 관련된 영향을 체크할 수 있는 문항이 담겼다. 개인정보보호를 준수하고 있는지, 데이터셋(자료들의 집합체)이 대표성을 갖고 있는지 혹은 민감정보를 포함하고 있는지 등이다. 인권영향평가는 사업과정, 정책, 입법 등이 인권에 미치는 영향을 측정하고 평가하는 도구로 국가, 지방자치단체, 기업 등이 추진하는 사업과정이나 정책 등에서 인권에 미치는 부정적 영향을 방지·완화하는 역할을 한다.

주요 선진국과 기업도 AI의 인권영향평가를 도입하는 추세다. 유엔 인권최고대표, 유엔인권이사회는 지난해 국가나 기업에서 AI 시스템에 대한 인권 실사를 권고했다. 구글, 페이스북, 마이크로소프트 등 빅테크 기업들도 자사의 AI에 대해 인권영향평가를 수행했다.

한국에서도 인권위가 지난해 5월 ' AI 개발과 활용에 관한 인권 가이드라인'을 마련했다. 성희롱 발언, 소수자에 대한 차별·혐오 발언 논란에 휩싸인 챗봇 '이루다' 사태가 계기가 됐다. 가이드라인은 △인간의 존엄성 및 개인의 자율성과 다양성 보장 △투명성과 설명 의무 △자기결정권의 보장 △차별금지 △인공지능 인권영향평가 시행 △위험도 등급 및 관련 법·제도 마련 등이 골자다.

인권위는 국무총리와 과학기술정보통신부장관, 개인정보보호위원장, 방송통신위원장 등 각 부처 장관과 기관장 등에게 이 가이드라인에 기초해 인공지능 관련 정책을 수립·이행할 것을 권고했다. 평가 대상으로 △소방 △응급의료 △신원확인 △인사채용·평가 △범죄수사 △출입국 관리 △법률 해석 등 다양한 분야가 꼽힌다.

AI 인권영향평가 도입에 앞서 명확한 법률적 근거를 마련해야 한다는 지적도 나온다. 현재는 인권영향평가를 받아야 하는 대상이 법제화돼 있지 않다.

연구진은 보고서에서 "우리 법제에 난립돼 있는 영향평가제도 가운데 인권영향평가의 성격과 위상이 아직 불분명하고 규제영향평가 등은 AI 인권영향평가 제도를 온전히 실현하기에 여러 한계점이 있다"며 "기존 국가인권위원회법 개정이나 새로운 입법을 통해 AI 인권영향평가를 도입하는 방안을 단계적으로 검토할 필요가 있다"고 밝혔다.
TOP