우리는 효율과 성과로 인간의 가치를 재단하면서 ‘쓸모 있음’과 그렇지 않음을 판단한다. 기계가 “당신들도 그랬는데 우리는 왜 안 되지?”라고 물었을 때 “인간은 기계의 창조주니까”라는 설명을 그들이 받아들인다는 보장이 없다.
그 이유는 지금 거론하는 로봇은 과거와 전혀 다른 존재이기 때문이다. 그저 빠른 계산만 하는 컴퓨터가 아니다. 인간 지시에 복종하도록 프로그래밍 돼 있는 자동화된 기계도 아니다. 스스로 생각하고 판단할 수 있고, 프로그램마저도 수정할 수 있는 ‘생각하고 판단하고 행동하는 로봇’이다.
작년 예일 대학교에서 생명윤리를 다루는 웬델 월러치와 인디애나 대학교의 과학철학사와 인지과학을 연구하는 콜린 알렌 교수는 ‘왜 로봇의 도덕인가’라는 책을 냈다. 저자들은 책에서 “기계 스스로 ‘무엇을 할까’라는 질문을 하게 될 상황을 준비해야 한다”고 말한다.
이 시각 인기 뉴스
예를 들어 로봇이 인간으로부터 살상 허락을 받으면 모든 원칙은 무시된다. 로봇이 누구를 향해 살상력이 허용될 지에 관해 ‘도덕적 결정’을 내리는 능력을 완벽히 구현하지 않는 한 로봇 전투 기계가 인간에게 해를 끼칠 가능성을 줄일 방법이 없다. 로봇의 도덕을 고민해야 할 때라는 의미다.
하지만, 과학계 중심에서 나오는 우려는 이 보다 더 심각하다. 올 초 주목받은 영화 ‘엑스마키나’를 보자. 에이바는 더 완벽한 제3의 에이바를 만들려는 인간에 대해 ‘인간의 방식’으로 대응한다. 여성로봇인 에이바는 남자 인간을 유혹하고, 인간이 인간을 배신하도록 한다. 인간의 언어가 프로그래밍되지 않은 로봇에는 기계어로 소통해 대신 살인을 저지르게 한다.
에이바는 ‘살기 위해’ 수단과 방법을 가리지 않았다. ‘생각하고 판단하고 행동한’ 에이바는 비열한 혹은 솔직한 인간 그 자체다. 에이바에게 ‘도덕’과 ‘윤리’를 프로그래밍했다면 달라졌을까. 에이바가 자신을 개발한 인간을 향해 “왜 나를 죽이려는가”라고 묻는다면.
석학들의 인공지능에 관한 우려는 로봇의 공격에 대비해 기술의 진화를 막거나, 혹은 로봇의 윤리 프로그래밍을 고민하라는 의미 그 이상이다. 인공지능 로봇의 윤리와 도덕이야말로 인간의 도덕과 윤리를 전제로 해야 풀리는 문제이기 때문이다. 인간이 지금처럼 살아도 되는 건지 심각하게 돌아보라는 경고음이다.