[신혜선의 잠금해제]로봇이 묻는다 "인간을 왜 보호해야하지?"

머니투데이 신혜선 부장 2015.03.28 07:07
글자크기

<23> 로봇의 도덕은 인간의 도덕에서 나온다

[신혜선의 잠금해제]로봇이 묻는다 "인간을 왜 보호해야하지?"


올 초 유명세를 타고 있는 뇌 과학자를 인터뷰할 때다. 그가 물었다. “오늘 신부장님이 지각했어요. 마구 뛰어가다가 개미를 몇 마리 밟아 죽였죠. 일부러 그런 거 아니잖아요? 이번엔 로봇 입장에서요. 로봇은 ‘파워’가 필요해요. 어느 날 그 파워를 유지하는데 사람을 재료로 쓰는 게 효율적이라는 판단이 들면, 그래서 인간을 그 용도로 쓴다면 어떻게 말리죠? 인간이니까 안 돼, 라는 말을 로봇이 수긍할 거로 생각하나요?”



황당한 질문이다. 하지만 로봇이 사람과 같은 뇌를 갖고 같은 사고 체계라면 얘기는 달라진다. 왜? 어마어마한 인류의 역사를 몇 분 만에 파악한(빅 데이터 분석) 로봇은 인간을 이해하는 동시에 실망할 것이다. 인간이 공존하는 생물들에 대한 존중이나 예의 정도를 분석하고 나니, 인간을 뭔가 특별하게 대접할 이유가 없다. 평화와 사랑보다는 전쟁과 죽음과 약탈이 비교할 수 없게 많은 인류의 역사가 아닌가. 지구라는 한정된 자원을 인간 맘대로 쓰면서 다른 생물들을 위협하고 있는 증거는 차고도 넘친다.

우리는 효율과 성과로 인간의 가치를 재단하면서 ‘쓸모 있음’과 그렇지 않음을 판단한다. 기계가 “당신들도 그랬는데 우리는 왜 안 되지?”라고 물었을 때 “인간은 기계의 창조주니까”라는 설명을 그들이 받아들인다는 보장이 없다.



최근 들어 사람의 뇌를 닮은 인공지능에 관한 얘기가 많이 들린다. 인간을 위협하는 기계에 대한 우려의 목소리로 이어진다. 그 목소리는 심지어 과학계 중심에서 나오고 있다.

그 이유는 지금 거론하는 로봇은 과거와 전혀 다른 존재이기 때문이다. 그저 빠른 계산만 하는 컴퓨터가 아니다. 인간 지시에 복종하도록 프로그래밍 돼 있는 자동화된 기계도 아니다. 스스로 생각하고 판단할 수 있고, 프로그램마저도 수정할 수 있는 ‘생각하고 판단하고 행동하는 로봇’이다.

작년 예일 대학교에서 생명윤리를 다루는 웬델 월러치와 인디애나 대학교의 과학철학사와 인지과학을 연구하는 콜린 알렌 교수는 ‘왜 로봇의 도덕인가’라는 책을 냈다. 저자들은 책에서 “기계 스스로 ‘무엇을 할까’라는 질문을 하게 될 상황을 준비해야 한다”고 말한다.


예를 들어 로봇이 인간으로부터 살상 허락을 받으면 모든 원칙은 무시된다. 로봇이 누구를 향해 살상력이 허용될 지에 관해 ‘도덕적 결정’을 내리는 능력을 완벽히 구현하지 않는 한 로봇 전투 기계가 인간에게 해를 끼칠 가능성을 줄일 방법이 없다. 로봇의 도덕을 고민해야 할 때라는 의미다.

하지만, 과학계 중심에서 나오는 우려는 이 보다 더 심각하다. 올 초 주목받은 영화 ‘엑스마키나’를 보자. 에이바는 더 완벽한 제3의 에이바를 만들려는 인간에 대해 ‘인간의 방식’으로 대응한다. 여성로봇인 에이바는 남자 인간을 유혹하고, 인간이 인간을 배신하도록 한다. 인간의 언어가 프로그래밍되지 않은 로봇에는 기계어로 소통해 대신 살인을 저지르게 한다.

에이바는 ‘살기 위해’ 수단과 방법을 가리지 않았다. ‘생각하고 판단하고 행동한’ 에이바는 비열한 혹은 솔직한 인간 그 자체다. 에이바에게 ‘도덕’과 ‘윤리’를 프로그래밍했다면 달라졌을까. 에이바가 자신을 개발한 인간을 향해 “왜 나를 죽이려는가”라고 묻는다면.

석학들의 인공지능에 관한 우려는 로봇의 공격에 대비해 기술의 진화를 막거나, 혹은 로봇의 윤리 프로그래밍을 고민하라는 의미 그 이상이다. 인공지능 로봇의 윤리와 도덕이야말로 인간의 도덕과 윤리를 전제로 해야 풀리는 문제이기 때문이다. 인간이 지금처럼 살아도 되는 건지 심각하게 돌아보라는 경고음이다.
TOP