[기고]인공지능에 대처하는 우리의 자세

머니투데이 김도엽 법무법인 태평양 변호사 2023.02.03 03:51
글자크기
인공지능이 우리 앞에 성큼 다가왔다. 강력한 콘텐츠 생성도구인 뤼튼, 온라인 페르소나를 기초로 한 이루다 챗봇 서비스, 이용자의 선호도를 기초로 한 맞춤형 추천과 광고 등 우리가 모르는 사이에 인공지능은 우리의 삶을 파고들었다. 최근 화제가 된 GPT-3.5는 검색, 광고, 교육 등의 영역에서 새로운 패러다임을 가져올 것이라고 한다.

인공지능 서비스는 이처럼 우리를 새로운 영역으로 인도하는 긍정적인 측면이 있지만 공정성이나 개인정보 보호 등의 문제가 발생할 위험도 있다. 인공지능 서비스가 개인정보 문제로 중단되기도 하고 서비스 결과의 편향성으로 막대한 제재금이 부과되는 경우도 있다. 남녀 차별로 여론의 뭇매를 맞거나 민감한 내용을 미뤄 짐작할 수 있는 정보가 노출돼 논란이 되기도 한다.



인공지능 발전에 따른 위험을 사전에 파악하고 대비책을 구축해야 한다는 목소리가 나오는 이유다.

이를 위해선 우선 인공지능 서비스와 관련된 위험판단의 기준을 정립할 필요가 있다. 인공지능은 다양한 개념으로 사용되기 때문에 인공지능에 해당하는 서비스의 범위를 정하는 것도 쉽지 않다.



다만 적어도 인간은 알고리즘의 대상이 될 수 없기 때문에 인적 개입이 없이 완전 자동화된 의사결정은 위험 수준이 높다고 분류하는 것이 타당해 보인다. 이 중에도 개인에게 중대한 영향이나 법적 효력을 미치는 서비스는 고위험 인공지능으로 해석하는 것이 타당하다.

특히 정보주체의 권리침해 가능성을 고려해 아동이나 민감한 정보를 포함한 개인정보를 처리하는 인공지능 서비스는 위험 관리가 필요한 서비스로 선정하는 것을 고려할 수 있다.

물론 이런 기준을 다양한 인공지능 서비스에 동일하게 적용할 수는 없다. 통상적으로는 인공지능 서비스의 위험관리정책과 이에 따른 성능·공정성·편향성·보안 등에 관한 내부통제기준을 마련하고 이를 적용해 책임성을 구현하는 방안을 고려할 수 있을 것이다.


아울러 인공지능의 학습데이터 처리, 서비스 제공 등 각 단계에서 위험을 실제로 식별하고 관리할 필요가 있다. 이를테면 학습데이터 처리 단계에서는 데이터 처리에 관한 적법한 근거를 마련하고 의도하지 않은 민감정보의 수집과 추론을 상시 점검할 필요가 있다. 인공지능 학습 단계에서는 이용자가 데이터 처리를 쉽게 이해할 수 있도록 공개해 투명성을 확보하고 가명·익명 처리 등의 조치도 적절히 활용해야 할 것이다. 서비스를 제공할 때도 개인정보가 노출되지 않도록 통제하고 정보주체 권리보호 방안을 마련해야 한다. 인공지능 서비스 전반에 관한 사전 영향평가와 사후 점검 체계도 필요하다.

정책적으로는 인공지능 서비스의 주요 근간이 되는 일반 프로파일링에 대한 연구도 진행돼야 한다. 일반 프로파일링에 대한 이론적 논의와 연구, 법률 개정이 동반해야 합리적인 제재가 가능하기 때문이다.

인공지능 서비스는 거부할 수 없는 흐름이다. 앞으로 인공지능을 적절히 활용하면 생활 전반의 효율이 눈에 띄게 늘어날 것이다. 다만 인공지능 서비스에 대한 불안과 두려움을 배제하자면 기업은 지속가능하고 신뢰받는 인공지능 서비스를 제공하기 위해 인공지능의 위험을 관리해야 한다. 투명성, 공정성, 책임성 등의 원칙을 기반으로 한 인공지능 거버넌스 구축이 새로운 문제에 대비할 수 있는 첫걸음이 될 것이다.

김도엽 법무법인 태평양 변호사김도엽 법무법인 태평양 변호사


이 기사의 관련기사

TOP