2020년 12월 출시된 스캐터랩의 인공지능(AI) 챗봇 '이루다'. /사진=머니투데이DB
AI 기술 발전과 활용 영역이 넓어지며 편의성이 개선된 반면 인권 침해 등 부작용 사례도 늘어나고 있다. 이에 31일 열린 국가인권위원회(인권위) '지능정보사회 정보인권 현황과 쟁점 토론회'에서 유승익 한동대 연구교수는 "AI는 데이터는 집약적으로 활용하고 지식을 창출하는 방식이 기존 기술과는 전혀 달라 잠재적·현실적인 위험성이 많다"며 AI 인권영향평가 도입을 강조했다.
인권영향평가 접근 방식은 크게 '위험 기반'과 '인권 기반' 두 가지로 나뉜다. 캐나다나 EU 등이 채택하는 위험 기반 접근은 식별된 위험 수준에 따라 요구사항에 차등을 두는 방식이다. 위험 기반 접근의 영향평가는 주로 고위험 규제에 초점을 둔다. 캐나다의 경우 2019년 정부 훈령으로 공공기관 AI 영향평가를 법규화해 실시 중이기도 하다.
다만, 유 교수는 "두 접근 방식은 이분법적으로 분리될 수는 없다"며 "덴마크의 경우 인권 기반으로 접근하면서도 영향의 심각도를 측정하는 등 위험 기반 접근도 포함하고 있다. 인권 기반과 위험 기반 접근은 상호보완적인 관계"라고 설명했다.
(왼쪽부터) 장여경 정보인권연구소 이사, 김기중 변호사(법무법인 동서양재), 유승익 한동대학교 글로벌 입법전문 법학후속세대양성사업팀 연구교수, 김슬 NEZ 대표. /사진=홍효진 기자
이 시각 인기 뉴스
장여경 정보인권연구소 이사는 "UN인권최고대표에서 AI 시스템의 불투명성이 정부와 민간 행위자들의 의도적인 비밀주의에서도 기인하다고 언급한 만큼 투명성 증진이 중요하다"며 "영국은 경쟁시장 감독기관(CMA), 방송통신 규제기구(Ofcom), 개인정보보호 감독기관(ICO), 금융감독기관(FCA) 4개 기관이 함께 알고리즘 감사 관련 보고서를 발간했다. 다양한 AI 평가 방안을 비교하면서 책무성을 확보해야 한다"고 강조했다.
유 교수는 "규제 밀도를 어떻게 할 것인가에 대한 고민이 필요하고, 인권영향평가가 형식에 머무르지 않고 실효적으로 안착될 수 있도록 해야 한다"며 "영향평가 자체에 대한 거버넌스 구성 등에 대해서는 각국 인권기구들의 역할이 중요할 것"이라고 말했다.