
Q4-3-2. 인공지능 시스템이 의도한 대로 작동하지 않거나 인권에 미치는 부정적인 영향이 확인됐을 때 관련된 책임을 명확히 하고 인공지능 시스템을 개선하며 부정적 영향을 완화하기 위해 필요한 절차를 수립했습니까.
10일 인권위에 따르면 한동대산학협력단은 연구용역 보고서를 통해 AI 인권영향평가도구안을 개발해 인권위에 제출했다. 도구안에는 AI 기술과 관련된 영향을 체크할 수 있는 문항이 담겼다. 개인정보보호를 준수하고 있는지, 데이터셋(자료들의 집합체)이 대표성을 갖고 있는지 혹은 민감정보를 포함하고 있는지 등이다. 인권영향평가는 사업과정, 정책, 입법 등이 인권에 미치는 영향을 측정하고 평가하는 도구로 국가, 지방자치단체, 기업 등이 추진하는 사업과정이나 정책 등에서 인권에 미치는 부정적 영향을 방지·완화하는 역할을 한다.
한국에서도 인권위가 지난해 5월 ' AI 개발과 활용에 관한 인권 가이드라인'을 마련했다. 성희롱 발언, 소수자에 대한 차별·혐오 발언 논란에 휩싸인 챗봇 '이루다' 사태가 계기가 됐다. 가이드라인은 △인간의 존엄성 및 개인의 자율성과 다양성 보장 △투명성과 설명 의무 △자기결정권의 보장 △차별금지 △인공지능 인권영향평가 시행 △위험도 등급 및 관련 법·제도 마련 등이 골자다.
AI 인권영향평가 도입에 앞서 명확한 법률적 근거를 마련해야 한다는 지적도 나온다. 현재는 인권영향평가를 받아야 하는 대상이 법제화돼 있지 않다.
연구진은 보고서에서 "우리 법제에 난립돼 있는 영향평가제도 가운데 인권영향평가의 성격과 위상이 아직 불분명하고 규제영향평가 등은 AI 인권영향평가 제도를 온전히 실현하기에 여러 한계점이 있다"며 "기존 국가인권위원회법 개정이나 새로운 입법을 통해 AI 인권영향평가를 도입하는 방안을 단계적으로 검토할 필요가 있다"고 밝혔다.