인간살상 로봇, 현실이 됐다…軍 보고서 속 4글자 뭐길래 '긴장'

머니투데이 변휘 기자, 김지훈 기자 2023.04.30 09:30
글자크기

[MT리포트] AI(인공지능)의 윤리학(下)

편집자주 영화 '아이언맨'의 자비스처럼 AI(인공지능)가 인간의 머리를 완벽히 대체하는 AGI(일반인공지능)의 시대가 멀지 않았다. 그 전에 이미 운전과 전쟁은 AI의 손에 넘어갈 공산이 크다. 과연 우린 AI에게 목숨을 맡길 준비가 돼 있나. AI에 얽힌 윤리적 문제를 짚고 해법을 찾아보자.

'AI 윤리기준' 어디까지 왔나…한국 '디지털 신질서' 이끈다
챗GPT 챗GPT


챗GPT가 촉발한 초거대 AI(인공지능) 경쟁은 머지않은 미래 국가 경제·산업의 흥망을 좌우할 정도로 영향력이 크다는 게 우리 정부의 인식이다. 다만 기술 발전이 초래하는 사회·윤리적 변화의 대응 역시 못지 않은 핵심 과제다. 이에 과학기술정보통신부는 지난 14일 발표한 '초거대 AI 경쟁력 강화 방안'에서 "'디지털 신질서' 확립으로 범국가 AI 혁신 제도·문화 정착에 힘쓰겠다"는 목표를 제시했다.

앞서 과기정통부는 2020년 12월 'AI 윤리기준', 2021년 5월 '신뢰할 수 있는 AI 실현전략'을 발표하는 등 사람 중심의 AI 구현을 위한 정책 방안을 수립해 왔다.



정보통신정책연구원(KISDI)과 함께 마련한 'AI 윤리기준'은 바람직한 AI 개발·활용 방향을 제시하는데 주안점을 뒀으며 △AI는 사람 중심이어야 한다 △AI 개발과 활용 과정에서 인간의 존엄성·사회의 공공선·기술의 합목적성 등 3대 원칙을 지켜야 한다는 내용이 핵심이다. 또 정부, 공공기관, 기업, AI 이용자 등 모든 사회 구성원이 AI를 개발·활용할 때 윤리 기준을 염두에 둬야 한다고 명시했다. 다만 이는 법이나 지침이 아닌 자율 규범이라는 한계를 가진다.

'신뢰할 수 있는 AI 실현전략'의 경우, AI윤리기준의 실천 방안을 보다 구체화한 내용이다. '누구나 신뢰할 수 있는, 모두가 누릴 수 있는 AI'를 비전으로 정하고 민간의 AI 제품·서비스 개발, 검증, 인증 단계에 따라 신뢰를 확보할 수 있는 기준을 제시했다. 아울러 과기정통부는 같은 해 11월 기업이 자율적으로 활용할 수 있는 'AI 윤리 자율점검표'와'개발안내서'를 마련했다.



'AI윤리·검증·리터러시' 3박자 정책 추진

생성AI의 출현으로 인류의 일상에 AI 기술이 더욱 빠르게 확산하고 있는 만큼, AI 윤리원칙의 정립도 변화하는 기술·사회 환경 변화에 맞춰 속도를 내야 한다는 평가다.

이에 과기정통부는 신뢰할 수 있는 초거대·생성형 AI 개발·운영을 목표로 산학연과 머리를 맞대고 있다. 특히 지난달 출범한 'AI 윤리정책 포럼'에는 AI·철학·교육·법·행정 등 분야별 전문가들이 참여해 △편향성과 허위 정보 등에 대응하는 'AI 윤리체계' △신뢰성 및 위험 요소를 기술적으로 확인하는 'AI 검증·인증'' △악용 방지를 위한 'AI 리터러시 교육' 대책을 수립할 계획이다.


과기정통부는 또 디지털 혁신이 인류 보편 가치를 지향하고 그 혜택을 모든 사회 구성원이 함께 공유하기 위한 공통규범으로 '디지털 권리장전(가칭)'을 올해 하반기까지 마련할 계획인데, AI 윤리정책이 그 핵심 이슈가 될 전망이다. 디지털 권리장전은 지난해 9월 윤석열 대통령이 방미 중 공개한 '뉴욕구상'의 이행 방안이다. 자유·인권·연대라는 인류의 보편적 가치를 지향하는 디지털 혁신을 위해 세계시민이 함께 추구할 '디지털 신질서'를 디지털 선도국가인 한국이 앞장서자는 비전이다.

챗GPT 등장에 '윤리' 대신 '속도'…AI 국제규범 필요해

정부는 물론 민간에서도 자발적인 AI윤리원칙을 내놓고 있다. 국내에서는 지난 2020년 차별·혐오 표현으로 논란이 됐던 AI챗봇 '이루다' 사태의 여파였다. 이에 LG전자와 네이버·카카오·SK·KT 등 초거대AI 개발에 나선 기업을 중심으로 각자의 AI 윤리기준을 공개해 왔다. 또 구글과 마이크로소프트(MS) 등 글로벌 빅테크 역시 자체 AI 윤리원칙을 제정해 AI프로젝트 개발에 적용해 왔다.

그러나 민간의 자율 규제를 앞으로도 기대할 수는 없는 형편이다. 오픈AI의 챗GPT 등장 이후 기술 경쟁에서 뒤처졌다는 위기감에 빠진 빅테크들이 '윤리'보다는 '기술 속도전'을 택하는 흐름이 확산하고 있어서다. 실제로 뉴욕타임스는 지난 7일 보도에서 MS와 구글의 전현직 직원 15명과 이들 회사의 내부 문서를 인용, MS는 지난 3월 내부 윤리팀을 해체했으며 구글은 AI 제품 검토 담당 직원들이 '아직 부정확하고 위험한 답변을 생성한다'며 반대했지만 AI챗봇 '바드' 출시를 강행했다고 보도했다.

이에 AI 윤리원칙의 정립을 위한 국제규범 정립 필요성이 제기되고 있다. 이를 위해 내달 19~21일 히로시마에서 열리는 G7 정상회의에서도 'AI 윤리'가 핵심 의제로 등장할 전망이다. 지난 20일 닛케이 등 보도에 따르면, 마쓰노 히로카즈 일본 관방장관은 "AI는 개발, 이용·활용 추진, 적절한 규제 등 3가지 요소 모두 중요하다"며 "G7 의장국으로서 논의를 주도하겠다"고 말했다.

국군 발주 보고서 "급변상황때 AI가 살상…"…中은 뇌와 AI 연결중
(서울=뉴스1) 안은나 기자 = 윤석열 대통령과 김건희 여사가 1일 충남 계룡대 대연병장에서 열린 제74주년 국군의 날 기념행사에 입장하고 있다. (대통령실 제공) 2022.10.1/뉴스1  Copyright (C) 뉴스1. All rights reserved. 무단 전재 및 재배포 금지.(서울=뉴스1) 안은나 기자 = 윤석열 대통령과 김건희 여사가 1일 충남 계룡대 대연병장에서 열린 제74주년 국군의 날 기념행사에 입장하고 있다. (대통령실 제공) 2022.10.1/뉴스1 Copyright (C) 뉴스1. All rights reserved. 무단 전재 및 재배포 금지.
급변 상황에서 군 통수권자인 대통령과 군 수뇌부의 역할 비중, 표준적 선호경향 등을 고려해 '치명적 자율 무기'(Lethal Autonomous Weapons·LAWS)를 가동하는 군사용 AI(인공지능) 운용안이 우리 육군의 AI 연구 보고서에 등장했다. 지난해 2월부터 7월까지 군의 민간 발주를 거쳐 작성된 이 보고서에는 LAWS에 '약한 AI 윤리적 판단' 체계를 접목하면 대통령 유고 등의 사태에 대비할 수 있다는 주장이 실렸다.

연구진은 "유사시 의사결정을 최단시간 내 할 수 있는 것이 AI의 장점"이라고 썼다. △기획의 견실성 △구현의 효율성 △작동의 지속성 △데이터의 진실성 등 안전성 확보 목적의 군사용 AI 대상 윤리적 평가·검증 요소도 실렸다.

육군 발주 용역 보고서 일부. 육군 발주 용역 보고서 일부.
AI를 둘러싼 군비경쟁과 윤리적 기준 수립이라는 세계 각군의 고민에서 우리 군도 자유로울 수 없음을 보여주는 대목이다. 군 당국자는 용역 결과에 대해 "정책 참고 자료일 뿐 적용 계획은 없다"고 했다. 다만 AI가 지휘통제라는 고차원의 판단 영역으로 진화의 범위를 확장한 것은 부인할 수 없는 사실이다. 미군은 2019년부터 AI에 기반한 차세대 지휘통제체계를 추진하고 있다. 우리 군도 국방기획체계상 기획문서를 올해 4년만에 갱신하며 차세대 지휘통제체계 추진 계획을 밝혔다. 지휘통제를 수행하는 것은 인간이지만 AI 판단에 대한 의존도가 높아지는 것이다.

軍 보고서에 등장한 LAWS란?…드론 수준 벗어나 교전권·살상권

카구2. /사진제공=STM카구2. /사진제공=STM
LAWS의 출현에 따라 영화 '터미네이터'를 연상시킬 만큼 AI 자율성이 강화되는 시대가 목전에 왔다. LAWS는 자율 무기체계(Autonomous Weapon System·AWS)의 한 갈래이자 진화형으로 자율적 교전권 살상권이 부여된 AI다. 유엔 리비아 전문가 패널이 유엔 안전보장이사회에 제출한 보고서를 통해 2021년 3월 리비아 통합정부군이 민병대 사살에 동원했을 가능성을 제기한 드론 카구2와 같은 무기체계다.

카구2는 인명살상용 폭발탄, 건물 파괴용 열압력탄 등으로 무장하고 30분간 비행하면서 목표와 자율적으로 교전할 수 있다. 작년 12월 우리 영공을 침범학 투입된 북한 무인기처럼 배후에서 입력을 받는 대로 움직이는 수준을 넘어선 것이다.만약 카구2가 리비아 내란 과정에서 인간을 실제로 공격했다면 세계 3대 SF 거장으로 불리는 소설가 아이작 아시모프(1920~1992년)가 주창한 '로봇3원칙' 중 첫 번째 원칙 '로봇은 인간에게 해를 입혀서는 안 된다'는 사실상 깨진 격이라는 평가가 나온다.

(서울=뉴스1) = 북한 무인기 여러 대가 26일 군사분계선(MDL)을 넘어 우리 영공을 침입했으며 이중 1대는 서울 시내 상공에 진입했다가 빠져나갔다.   북한 무인기의 우리 영공 침범이 공식 확인된 건 2017년 6월 이후 5년6개월 만이다. 사진은 2017년 6월9일 강원도 인제군 야산에서 발견된 북한 소형 무인기. (뉴스1 DB) 2022.12.26/뉴스1  Copyright (C) 뉴스1. All rights reserved. 무단 전재 및 재배포 금지.(서울=뉴스1) = 북한 무인기 여러 대가 26일 군사분계선(MDL)을 넘어 우리 영공을 침입했으며 이중 1대는 서울 시내 상공에 진입했다가 빠져나갔다. 북한 무인기의 우리 영공 침범이 공식 확인된 건 2017년 6월 이후 5년6개월 만이다. 사진은 2017년 6월9일 강원도 인제군 야산에서 발견된 북한 소형 무인기. (뉴스1 DB) 2022.12.26/뉴스1 Copyright (C) 뉴스1. All rights reserved. 무단 전재 및 재배포 금지.
교전, 살상권을 부여 받는 것이 적절하느냐의 논란이 있을 뿐 AI의 판단 능력은 이미 인간을 위협하는 수준까지 진화했다. 2020년 8월 미 공군은 AI 기업이 개발한 AI 파일럿과 미 공군의 F-16 조종사 간 가상 교전을 붙였는데 결과는 5대 0으로 AI의 압승이었다.

전문가들은 군사용 AI를 둘러싼 각국의 고민은 크게 두 방향으로 이어질 것으로 본다. 군사용 AI의 자율성을 통제하는 윤리적 기준 수립이 중요하지만 수면 아래에서는 비용을 절감하고 안보 위협에 대응하기 위해 AI 효율 극대화를 연구할 수 있다는 관측이다.

◆"무고한 민간인은 없다" 식으로 AI 무차별 진화할까

2차 세계 대전 당시 미 육군 항공대가 공습한 도쿄. /사진제공=미군 2차 세계 대전 당시 미 육군 항공대가 공습한 도쿄. /사진제공=미군
2차 세계 대전 당시 민가를 포함한 도쿄 전역을 소이탄(착탄하면 화재 등을 일으키는 폭탄)으로 폭격한 커티스 르메이 미 공군 대장의 "무고한 민간인은 없다"는 발언처럼 전면전에서는 자국 승리라는 절대 목표를 윤리적 가치 수호보다 앞세우는 상황이 벌어질 수도 있다. 예비역 육군 준장인 한설 전 육군 군사연구소장은 'AI 윤리학'에 대해 "아마도 전쟁에서는 윤리를 별로 따지지 않고 가장 효과적인 방향을 찾으려 할 것 같다"며 "윤리에 대해 표면적으로 말은 하지만 실제적으로 적용되는 것은 안될 것"이라고 말했다.

인간살상 로봇, 현실이 됐다…軍 보고서 속 4글자 뭐길래 '긴장'
2016년 로버트 워크 미국 국방부 부장관은 "국방부는 '치명적 권한'(lethal authority)을 기계에 위임하지 않을 것이지만 어떤 독재 정권이 그렇게 할 수 있기 때문에 이것을 다시 생각할 필요가 있다"고 발언한 바 있다.

유엔이 2014년 LAWS에 관한 정부전문가그룹(GGE)을 결성하고 2019년 국제인도의 적용, 무기체계 사용결정에 대한 인간의 책임 등 11개 지도원칙을 발표하는 등 논의는 일찌감치 시작됐지만 관련 규범·협약과 관련한 논의가 지지부진하게 흐르고 있다는 분석도 있다. 이는 미국과 중국 등 AI를 활용한 군사 기술 개발에 관심이 높은 국가들이 LAWS 등 AI 규제를 원치 않는 속내이기 때문인 것으로 보인다.

(남중국해 로이터=뉴스1) 권진영 기자 = 17일(현지시간) 미국 제7함대 소속 알레이버크급 유도미사일을 구축한 밀리우스함이 대만해협에서 통과 작전을 수행 중이다.  ⓒ 로이터=뉴스1  Copyright (C) 뉴스1. All rights reserved. 무단 전재 및 재배포 금지.(남중국해 로이터=뉴스1) 권진영 기자 = 17일(현지시간) 미국 제7함대 소속 알레이버크급 유도미사일을 구축한 밀리우스함이 대만해협에서 통과 작전을 수행 중이다. ⓒ 로이터=뉴스1 Copyright (C) 뉴스1. All rights reserved. 무단 전재 및 재배포 금지.
심지어 미국과 대만 해협 문제 등을 둘러싸고 패권 경쟁이 한창인 중국 인민해방군은 AI가 주도하는 정책 결정인 '뇌-기계 결합'(brain-machine) 프로젝트를 추진하고 있다.

국제법 전문가인 심상민 아산정책연구원 연구위원은 lAWS에 적용돼야 할 윤리적 기준에 대해 "국제법 원칙에 부합하는 한도 내에서만 전쟁 수행 행위를 할 수 있도록 사전 프로그래밍을 할 수 있게 하고 규제하는 정책을 미리 마련하는 것이 국가, 정부, 군 당국의 역할"이라며 "입법이나 교전 수칙 등에서 제도화가 필요할 것"이라고 말했다. 심 연구위원은 LAWS를 활용한 전쟁수행은 책임 소재와 관련한 논란에서 자유로울 수 없을 것이라고 지적했다.
TOP