
애초 오류가 있는 데이터를 학습해 엉뚱한 답변을 내놓고, 이 같은 잘못된 정보가 영구화할 수 있다. 더욱이 기존 검색엔진은 정보의 출처를 제공해 팩트체크를 할 수 있지만, 챗GPT의 답변은 출처나 근거를 따로 제시하지 않는다.
챗GPT 개발사인 오픈AI 스스로도 이 같은 부작용 사례를 경계하며 오히려 적절한 규제의 필요성을 고민하는 표정이다. 샘 알트만 CEO는 직원들에게 '챗GTP의 성과를 과시하지 말라'고 경고했으며, 소규모 스타트업으로서 스스로 규제 방안 또는 윤리 기준을 마련하는 것을 버거워하는 것으로 전해졌다.

다만 AI를 둘러싼 규제 논의는 전 세계적으로도 이제 막 발을 뗀 시점이다. 미국 백악관 과학기술정책국(OSTP)은 지난해 10월 AI 기술 개발 및 사용 과정의 부작용을 최소화하기 위한 'AI 윤리 지침'을 발표했지만, 법적 구속력이 없는 권고 수준이어서 '이빨 없는' 지침이라는 비판이 제기됐다. 국내에선 정부가 지난 2020년 말 '국가 AI 윤리 기준'을 발표했고, 현재 'AI 기본법' 제정을 추진 중이지만 규제보다는 오히려 관련 산업 육성에 무게가 실릴 것으로 보인다.
이와 비교하면 유럽은 좀 더 속도가 빠른 편이다. EU 집행위원회(EC)는 지난 2021년 4월 AI의 투명성·책임성·공정성 조항 및 고위험 AI 시스템 관련 규칙을 포함한 'AI법'을 제안했는데, 올해 시행을 목표로 논의 중인 상태다. 지난 3일 로이터 인터뷰에서 티에리 브르통 EU 내부시장 담당 집행위원은 챗GPT를 언급하면서 "AI는 큰 기회를 제공할 수 있지만 위험도 초래할 수도 있다"며 "견고한 규제 프레임워크가 필요한 이유"라고 말했다.
기술의 진보와 뒤따르는 규제를 바라보는 전문가들의 의견도 엇갈린다. 예컨대 오픈AI가 100% 통제 가능한 안전망을 갖추고 챗GPT를 만들어내는 것은 사실상 불가능한데 초기 단계의 AI 기술에 규제의 칼날을 먼저 들이대는 것은 문제라는 지적이다. 또 생성AI가 악용됐을 경우, 책임은 이용자의 몫인지 아니면 개발자의 문제인지 따지기 혼란스럽다는 지적이다.
규제 논의와 더불어 이용자가 생성AI에서 얻은 정보를 비판적으로 해석·활용할 수 있는 'AI 리터러시(문해력)'가 절실하다는 지적도 나온다. 신현우 서울과기대 박사는 "사회적 합의를 통해 허용되는 윤리적 범위를 법으로 강제할 수는 없는 일이다. 한국 사회는 앞서 '이루다 사태'를 통해서도 경험했다"며 "시민사회 스스로 윤리적 위협이 될 수 있는 요소를 점검·관리할 수 있는 'AI 리터러시' 역량이 중요하다"고 강조했다.