AI 챗봇 이루다 /사진=스캐터랩
반론도 적지않다. 한 IT 전문가는 “남성 또는 여성, 중성이든 또 10대든 60대이든 얼마든지 자유롭게 설정할 수 있지 않은가”라며 “오히려 가상 AI를 대상으로 음담패설 한 사용자의 인성이나 의도성이 더 문제이지 특정 연령대 성별을 취약 대상으로 보는 건 또 다른 편견일 수 있다”고 지적했다. 김종윤 스캐터랩 대표도 자사 블로그 입장문에서 “여대생 논란을 노린바 없으며 10~30대 주사용자층을 대상으로 20살 정도가 친근감있는 나이라고 생각했다”면서 “남자와 여자 버전 모두 고려했고 개발 일정상 여자버전인 루다가 먼저 나온 것일 뿐”이라고 해명했다.
이재웅 전 쏘카 대표도 “‘성적 학대, 악용은 사용자의 문제이지 AI 서비스의 문제라고 보기는 어렵다”며 “학습과 보정을 통해 직접적인 대상화가 어렵도록 보완하면서 성적으로 악용하는 사람들이 그 과정을 공개 공유하는 것은 적극 막아야 한다”고 했다.
한 인터넷커뮤니티에 올라온 이루다 대화내용. 레즈비언에대한 부정적 표현이 나온다. /사진=캡처
물론 AI가 학습데이터와 알고리즘을 바탕으로 성희롱이나 장애인, 성소수자에 대한 차별 발언을 하고 이용자가 성적 수치심이나 정신적 피해, 불편함을 느낀다면 막아야 한다. 개발사가 소송 대상이 될 가능성도 있다. 전세계적으로 이같은 차별에 대한 규제논의가 활발하다. MS의 경우 2016년 챗봇 테이(Tay)를 출시한 지 16시간 만에 욕설과 인종, 성차별 발언을 하자 운영을 중단하기도 했다.
이 시각 인기 뉴스
일각에서는 AI 개발 초기 단계에서 윤리나 법적 문제를 논하는 것은 이르다는 시각도 있다. 경희대 이경전 교수는 “이루다는 아무 말 대잔치를 하는 그냥 성능 낮은 스몰토크(Small Talk) 챗봇에 불과하다”면서 “이런 저품질 대화 기계를 가지고 이루다가 레즈비언을 혐오했다고 주장하는 것은, 이제 겨우 말을 뗀 아이에게 레즈비언이 좋아 싫어? 하고 물어본 후에 싫다 했다고 난리치는 것보다 더 바보같은 일 아니냐”고 반문했다.
③ 필터링 강화하면 완벽한 AI 나올까전문가들은 AI가 다양한 학습데이터를 기반으로 하는 만큼 차별이나 혐오, 편향 방지를 위한 사전 필터링에 보다 적극적이어야 한다고 지적한다. 한상기 테크프론티어 대표는 ”통상 챗봇은 기업이 고객지원을 위해 사용했는데 일반인 대상으로 확대하는 게 얼마나 다른 차원의 문제인지 보여준 사례”라며 “차별이나 혐오, 편향성을 막기 위해 특별한 단어표현이나 사회적으로 받아들이기 어려운 문제들은 사전에 걸러내고 검증했어야 한다”고 지적했다. 이재웅 전 쏘카 대표도 자신의 SNS에서 “일상 대화에서 차별·혐오하는 사람이 많고 그것을 학습한 결과로 차별과 혐오를 하게 됐더라도 그것을 보정 없이 대중에게 서비스하는 것은 큰 문제”라며 “지금이라도 차별·혐오 발언을 하지 않도록 기준과 시스템을 변경해야 한다”고 지적했다.
이재웅 전 쏘카 대표 페이스북/사진=캡처
업계의 한 관계자는 “우리 사회 차별과 편견 등 가치관적·윤리적 기준에 대한 사회적 합의가 모호한 상황에서 AI에게 절대 기준을 입력할 수 없지 않느냐”며 “일단 서비스를 시작하면서 점진적으로 보완해 나가는 게 불가피하다”고 진단했다.
④ 개발윤리 중요하지만 수용자 교육도 필요AI를 통한 차별과 혐오가 확산하지 않도록 서비스 개발사의 윤리적 책임과 사회적 규제가 강조되고 있지만, 이를 받아들이는 수용자의 자세가 유연해질 필요가 있다는 지적도 나온다.
최필식 작가는 “AI는 아직 초기단계로 일정한 시행착오를 겪을 수밖에 없는데 과도한 논란에 휩싸이면 서비스 발전이 불가능하다”면서 “개발자 스스로 사회 윤리적 규정을 준수해야 하는 것은 필요하지만 AI가 사용자와 상호작용하면서 발전하는 만큼 이를 악용하지 않는 수용자 자세도 중요하다”고 말했다.
장동인 에이아이비비랩 대표는 ”AI는 도구이자 기계인데 마치 인간처럼 여기고 이것저것 부적절한 질문을 하는 것은 문제”라면서 “AI 서비스를 개발한 스타트업만을 탓할 문제가 아니라 이런 서비스를 앞으로 어떻게 사회적으로 수용할지에 대한 고민과 사용자 교육이 필요하다”고 지적했다.