미완의 서비스로 사라진 이루다이지만 한가지 의미있는 족적을 남겼다. 우리 사회에 AI와 인간이 어떻게 공존해야 하는지에 대한 화두를 던진 것이다. 그동안 인간에게만 적용돼 왔던 윤리적, 도덕적 규범의 준수를 AI 마저도 요구받게 된 것이다.
━
사회적 영향력 커지는 AI, 윤리성 더 신중히 고려해야━
AI의 사회적 파급력이 클 수 밖에 없다. AI가 고도화될 수록 알고리즘으로 인한 편향성과 차별논란 역시 피하기 어렵다. 가령 최근 각 기업들이 채택하고 있는 AI 면접과 관련해 해당 AI가 혐오와 차별적 데이터로 학습된 상황이라면, 면접의 결과는 불 보듯 뻔하다. AI가 사회적 편향을 그대로 흡수해 사회 전반에 차별과 편견을 더 조장할 수 있다는 지적이다. 따라서 이를 막기 위한 데이터 사전 필터링과 알고리즘 설정에 그만큼 신중해야 한다는 지적이다.
한상기 테크프론티어 대표는 "통상 챗봇은 기업이 고객지원을 위해 사용했는데 일반인 대상으로 확대하는 게 얼마나 다른 차원의 문제인지 보여준 사례"라며 "차별이나 혐오, 편향성을 막기 위해 특별한 단어표현이나 사회적으로 받아들이기 어려운 문제들은 사전에 걸러내고 검증해야 한다"고 지적했다. 김재인 경희대 비교문화연구소 교수도 "AI에 대한 폭력은 메아리처럼 인간에게 되돌아온다"며 "일부 이용자가 AI에게 희롱과 착취를 학습시키면 다른 이용자가 비슷한 방식의 출력물을 얻어내고 미성년자 또는 폭력적 대화를 원치 않는 사람조차 (그런) 상황에 놓이게 되는 것"이라고 말했다. 그는 "이제 코딩은 알고리즘이 사회 속에서 어떻게 작동할 것인지도 포함하는 '사회적 코딩' 개념으로 확장돼야 한다"고 강조하기도 했다.
━
이루다는 추후 AI 논란의 백신역할…AI 사회적 신뢰수준 높여야━
법무법인 세종의 백대용 변호사는 "이루다 사태는 우리나라 IT 기업들에 AI 관련 도덕성 논란에 대해 백신과 같은 역할을 하게 됐다"면서 "AI의 윤리성은 앞으로 다가올 미래 세상에서 그 어떤 가치보다 중요한 덕목이 될 수밖에 없고 AI의 지속적인 발전을 위해서도 기술의 윤리성과 책임성의 관점에 더 무게가 실리게 될 것"이라고 지적했다.
이번 사태로 땅에 떨어진 AI에 대한 사회적 신뢰 수준을 높이는 것이 우선이란 지적도 나온다. 문성욱 정보통신정책연구원 지능정보사회정책센터장은 "AI를 사람 중심의 기술로 안착시키고 사회, 경제적으로 긍정적인 효과를 극대화하기 위해서는 AI에 대한 신뢰 수준을 높이는 것이 우선돼야 한다"며 "AI 개발 과정에서 다양성을 확보하고, 유아, 초중고생, 대학생 및 성인 등을 대상으로 AI 윤리교육을 하는 등 사회 구성원 모두가 머리를 맞대고 대안을 만들어가야 한다"고 강조했다.
한편, 이루다 사태는 여전히 진행 중이다. 개인정보 무단 유출 혐의로 개인정보보호위원회가 스캐터랩을 조사 중이며, 결과는 이르면 내주 중 발표된다. 개발사 스캐터랩을 상대로 한 집단소송도 걸려 있다. 개인정보 유출 피해를 주장하는 이용자 254명은 지난달 30일 스캐터랩을 상대로 1인당 80만원씩, 총 2억원의 손해배상청구소송을 제기했다. 이루다 개발 중 카카오톡 대화 수집 과정에서 정보주체의 동의 없이 개인정보를 무단으로 사용한 점, 대화 내역에 포함된 민감정보를 사용했으며 가명정보 처리가 제대로 이뤄지지 않은 점 등을 문제 삼았다.
[저작권자 @머니투데이, 무단전재 및 재배포 금지]