/사진=게티이미지뱅크
국내에서도 이같은 우려가 나온다. 권석준 성균관대 화학공학과 교수는 페이스북에 "봄학기 실라부스(강의계획)를 고치다가 '연구에 챗GPT를 포함해 모든 생성 AI를 사용할 수 있으나, PSET 및 시험에 자동 생성 및 약간 수정된 답안을 복사 붙여넣어 제출하는 것은 불가능하다'는 문장을 추가했다"라고 말했다.
사람 점점 닮아가지만…AI의 표절·편향·가짜뉴스 문제는 누가 책임지나
챗GPT 사용을 금지한 몬트리올 대학 공지. /사진=몬트리올 대학 홈페이지 갈무리
챗GPT 결과물에 저작권을 어떻게 부여할지도 논란이다. 아직까지 '생성 AI'가 스스로 온전히 창작물을 만들어내지 못하는 '약(弱) 인공지능' 단계에 머물러 있기 때문에 창작에 개입한 인간이 저작권을 갖는 것으로 본다. ICML에서 챗GPT의 결과물을 참고해서 다시 재작성(Paraphrasing)하는 것은 크게 문제 삼지않겠다는 것도 같은 이유에서다. 그러나 향후 AI가 인간처럼 스스로 창작할 수 있는 '강(强) 인공지능' 수준까지 발전하면, AI가 생성한 작품에 대한 저작권은 누가 갖게될 것인지 아직 아무도 답을 내리지 못하고 있다.
AI 법인격 부여할 수 있을까…규제 앞서'사회적 합의' 필요이에 전문가들은 한시라도 빨리 우리 삶에 침투하는 AI와의 동거를 위한 사회적 논의와 합의에 나서야한다고 입을 모은다.
이 시각 인기 뉴스
AI를 어떻게 바라볼 지 규정하지 못한 상태에서 상용화가 시작되자 세계 각국이 AI 규제카드를 만지작거리는 것도 이때문이다. 유럽에서는 AI 기술을 위험도에 따라 세 단계로 나누고 이에 맞춰 규제하는'인공지능법(AI Act)'를 준비 중이다. 국내에서도 과학기술정보통신부와 '인공지능 윤리 포럼'이 연내 발표를 목표로 인공지능 윤리원칙 체크리스트를 만들고 있다. 이와관련, 오혜연 카이스트 전산학부 교수는 "AI도 원자력처럼 누가·어떻게·어떤 맥락에서 사용하는지가 중요하다"며 "생성 AI가 악용이 됐을 때 누구에게 책임을 물어야 하는 가에 대한 사회적 합의가 규제에 앞서 필요하다"고 지적했다.
국제인공지능&윤리협회는 AI 기술 발전과 윤리의 공존을 위해서는 자율규제 영역을 최대한 확보해야 한다고 주장한다. 전창배 국제인공지능&윤리협회 이사장은 "의약품처럼 인간에게 많은 영향을 미치는 고위험 인공지능(자율주행차·AI 면접관·AI 판사 등)은 민관이 함께 만든 AI 영향평가를 적용하고, 그보다 위험도가 낮은 중저위험 인공지능(AI 챗봇·스피커) 등은 민간의 윤리 가이드라인을 따르도록 해야한다"고 말했다.