/로이터=뉴스1
이른바 '할루시네이션'(hallucination, 환각)'은 대표적인 생성AI의 허점이다. 2021년까지의 데이터만 학습한 챗GPT가 '한국의 대통령'을 '문재인'이라고 답한다.
AI가 현실적 편견 및 혐오를 그대로 학습하고 보다 강화할 우려도 제기된다. 예컨대 AI를 활용한 채용 시스템이 여성 구직자를 차별하거나, 얼굴 인식 소프트웨어가 백인보다 흑인 얼굴에 부정적 인식을 드러내는 것도 마찬가지 맥락이다. 실제로 미국에서는 마이크로소프트(MS)의 챗봇이 소수자 혐오 발언을 해 논란이 됐고, 프로그래밍을 위한 자동 코드 완성 서비스가 저작권 침해 문제로 소송을 당하기도 했다.
챗GPT 개발사도 버겁다…"규제 당국 서둘러 개입해야"
미라 무라티 오픈AI CTO/사진=소셜미디어
다만 AI를 둘러싼 규제 논의는 전 세계적으로도 이제 막 발을 뗀 시점이다. 미국 백악관 과학기술정책국(OSTP)은 지난해 10월 AI 기술 개발 및 사용 과정의 부작용을 최소화하기 위한 'AI 윤리 지침'을 발표했지만, 법적 구속력이 없는 권고 수준이어서 '이빨 없는' 지침이라는 비판이 제기됐다. 국내에선 정부가 지난 2020년 말 '국가 AI 윤리 기준'을 발표했고, 현재 'AI 기본법' 제정을 추진 중이지만 규제보다는 오히려 관련 산업 육성에 무게가 실릴 것으로 보인다.
이 시각 인기 뉴스
이와 비교하면 유럽은 좀 더 속도가 빠른 편이다. EU 집행위원회(EC)는 지난 2021년 4월 AI의 투명성·책임성·공정성 조항 및 고위험 AI 시스템 관련 규칙을 포함한 'AI법'을 제안했는데, 올해 시행을 목표로 논의 중인 상태다. 지난 3일 로이터 인터뷰에서 티에리 브르통 EU 내부시장 담당 집행위원은 챗GPT를 언급하면서 "AI는 큰 기회를 제공할 수 있지만 위험도 초래할 수도 있다"며 "견고한 규제 프레임워크가 필요한 이유"라고 말했다.
기술의 진보와 뒤따르는 규제를 바라보는 전문가들의 의견도 엇갈린다. 예컨대 오픈AI가 100% 통제 가능한 안전망을 갖추고 챗GPT를 만들어내는 것은 사실상 불가능한데 초기 단계의 AI 기술에 규제의 칼날을 먼저 들이대는 것은 문제라는 지적이다. 또 생성AI가 악용됐을 경우, 책임은 이용자의 몫인지 아니면 개발자의 문제인지 따지기 혼란스럽다는 지적이다.
규제 논의와 더불어 이용자가 생성AI에서 얻은 정보를 비판적으로 해석·활용할 수 있는 'AI 리터러시(문해력)'가 절실하다는 지적도 나온다. 신현우 서울과기대 박사는 "사회적 합의를 통해 허용되는 윤리적 범위를 법으로 강제할 수는 없는 일이다. 한국 사회는 앞서 '이루다 사태'를 통해서도 경험했다"며 "시민사회 스스로 윤리적 위협이 될 수 있는 요소를 점검·관리할 수 있는 'AI 리터러시' 역량이 중요하다"고 강조했다.