[기고]AI와 공존, 그리고 사회적 합의

머니투데이 김명준 한국전자통신연구원 원장 2020.12.03 05:00
글자크기
며칠 전 10만 명이 넘는 여성들의 ‘가짜 누드사진’이 온라인상에 퍼졌다는 뉴스로 시끌벅적했다. 인공지능(AI)을 이용해 옷을 지우고 나체로 합성하는 수법이다. 이전에도 AI를 이용해 연예인 사진으로 가짜 사진, 동영상을 만드는 AI 모조기술(Deep Fake)이 사회적 물의를 빚은 바 있다. 특히 목표 대상이 한류의 바람을 탄 우리나라 아이돌이라는 점에서 더 문제가 됐다. AI가 전에 없던 놀라운 결과물들로 우리 삶을 풍요롭게 만들기도 하지만 동시에 새로운 악영향을 끼치는 것을 보면서 절로 씁쓸한 마음이 든다.

사진=ETRI사진=ETRI


기술 발전 속도와 사회적 합의의 속도는 많은 차이가 난다. 기술은 날마다 혁신을 거듭하며 쏟아지는데 사회적 합의는 문화, 이해와 가치, 상황 등 고려해야 할 요소가 많아 합의를 이루는데 시간이 오래 걸리기 때문이다. 특히 AI·로봇·무인자율주행차 등 인간이 살아가면서 함께 호흡하는 비생명체와 타협이나 협의는 쉽지 않다.



만약 AI나 로봇의 잘못으로 사람이 상해를 입었다면 어떻게 할 것인가. 무인차의 경우 소유자, 제조사 중 누구에게 책임을 물을 것인가. 심지어 이와 같은 대상물들이 상황을 판단해야 하는 위치에 있을 때는 어떤 가치를 우선할 것인지 더욱 심도 있는 논의가 필요하다.

인류 문명과 과학기술의 발전으로 만들어진 결과물의 행동에 대한 지혜로운 답은 어떻게 찾을 수 있을까. 놀랍게도 이런 고민은 2000년 전 과거에도 있었다고 한다. 지금은 천부인권이 당연한 세상이지만 고대 사회에서 노비는 인간 이하의 대접을 받았다. 당시만 하더라도 노비는 주인에 예속된 하나의 물건에 불과해 노비 관련 문제가 발생하면 주인들의 합의가 필요했다. 하지만 노비는 주인의 의지에 따라 물건처럼 늘 행동하지 않았기 때문에 주인들이 쉽게 합의를 이끌어내기 어려웠다고 한다.



시대의 흐름에 따라 가치의 우선 순위는 사회적·환경적 상황에 따라 서로 다르다는 것은 쉽게 알 수 있다. 하지만 기술과 문명이 발전한 현대사회에서도 여전히 사회적 합의는 어려운 일이다. 최근 프랑스에서는 18세 무슬림 청년이 40대 중학교 교사를 백주대낮에 참수하는 사건이 일어나 전 세계를 경악하게 만들었다. 인종 간, 종교 간 갈등처럼 가치관의 충돌은 자칫 살인으로까지 이어질 수 있음을 보여준 사건이다. 신기술이 새로운 사회문제를 격화시키기 전에 더욱 더 많은 철학적 논의가 필요한 순간이다.

1912년 초호화여객선인 타이타닉호가 대서양에 빠졌을 때 구조순위는 노약자, 어린이, 여성 순이었다. 서양의 ‘젠틀맨 십’에 따른 가치가 반영된 결과다. 하지만 남성 우선으로 사고하는 문화권에서는 구조 순서가 달라졌을 것이다. 그렇기 때문에 사고구조를 담당하는 로봇이 있다면 어떤 가치판단을 실현하는 알고리즘을 심어주느냐가 중요하다. 하지만 여전히 추구하고자 하는 가치나 이념에 따라 로봇 사이에 서로 모순과 충돌이 일어나기 쉬운 상황이다.

그렇다면 삼성이나 LG, 테슬라, 다이슨 등 각 기업이 추구하고자 하는 경영이념이나 가치를 제품이나 서비스에 드러내 보이면 어떨까. 기능은 엔지니어가 구현하지만, 브랜드를 붙이는 자리에 비전에 따라 추구하고자 하는 가치를 엠블럼으로 만들거나 로봇이 지향하는 가치를 표현해 제품으로 만드는 것이다. 철학을 달리하는 제품들을 내놓고 소비자에게 선택권을 주는 방식이다. 실증 사례가 많아질수록 시장의 반응을 보며 연구자들은 새로운 영감을 얻을 수도 있다. AI가 어떻게 행동해야 하는지 절대 선, 우선순위를 찾는 것은 결코 쉽지 않을 것이다. 완전한 또는 단일안으로 AI의 가치에 대한 사회적 합의에 다다르는 것은 불가능하다고 본다. 따라서 가치가 다른 인공지능들과 인간이 더불어 살아가기 위한 다양한 방안을 모색해야 한다.

TOP