[유효상 칼럼] 왜 딥페이크는 양날의 검인가

머니투데이 유효상 유니콘경영경제연구원 원장 2024.09.10 06:00
글자크기
유효상 유니콘경영경제연구원장 /사진=유효상유효상 유니콘경영경제연구원장 /사진=유효상


금년 초 홍콩의 한 다국적기업이 딥페이크 기술로 만들어진 가짜 화상회의 영상에 속아 340억 원의 손해를 입었다. 세계적인 팝스타 테일러 스위프트의 얼굴이 음란물에 합성된 영상이 'X(전 트위터)'를 통해 전 세계에 뿌려졌다. 미국에서는 바이든 대통령의 목소리를 합성한 가짜 전화 음성파일이 논란이 됐다. 이탈리아에서는 마테오 렌치 전 총리가 다른 정치인들을 모욕하는 가짜 영상을 실제로 인식한 국민들이 총리를 거세게 비판하기도 했다. 영국의 가디언지는 지난 3월 딥페이크 웹사이트 5곳을 분석한 결과, 금년 초까지 전 세계 유명인 약 4000명이 딥페이크 피해자가 됐다고 보도했다.

이처럼 딥페이크 악용으로 인한 피해는 가짜 음란물 생성 및 유포, 보이스 피싱, 가짜 뉴스 양성, 저작권 침해, 정치적 악용 등 그 종류도 다양하다. 그러나 정교하게 만들어진 딥페이크 영상은 전문가도 구분하기 어려울 뿐만 아니라, 완성도가 높지 않아도 선량한 피해자가 속출하고 있으며, 정치적 목적의 선전, 선동에 악용될 가능성이 높아서 이에 대한 대책이 시급한 상황이다.



이렇게 세계적으로 딥페이크의 폐해가 심각한 문제로 대두되고 있는 가운데, 우리나라도 최근 들어 셀럽들은 물론 심지어는 초중고 학생들의 딥페이크 피해도 급증하고 있는 것으로 나타났다. 방송통신심의위원회에 따르면 국내 '딥페이크 성적 허위 영상물 차단·삭제 시정 요구 사례'는 2020년 473건에서 2023년에는 6000건을 넘기며 불과 4년 만에 12배 이상 증가했다. 또한 서울시교육청의 학교 실태조사에서는 최근 5년간 학생들의 딥페이크 피해 사례가 매년 2.8배씩 증가한 것으로 나타났다. 딥페이크 성 착취물로 인한 피해자의 절반 이상이 한국인이라는 조사 결과도 있다.

지난 8월 말에는 서울대 졸업생들이 동문 여성의 얼굴을 합성한 음란물을 제작하고 유포하여, 사회적으로 커다란 파장을 일으켰던 이른바 '서울대 딥페이크' 사건에 대한 법원 판결이 있었는데, 피고인은 5년형을 선고받았다. 최고의 지성을 자랑하는 상아탑도 딥페이크 범죄의 예외는 아니었다.



그런데 이번에 드러난 충격적인 사실은 우리나라 청소년들에게 딥페이크를 악용한 디지털 성범죄는 이미 만연한 문제로, 하나의 장난이나 놀이문화처럼 번져 있으며, 10대들의 딥페이크 영상물의 피해자와 가해자 모두 연령대가 낮다는 것이다. 경찰청이 공개한 '딥페이크 범죄 현황'에 따르면, 지난해 검거된 허위 영상물 피의자 중 10대가 75.8%였으며 금년에도 73.6%를 차지하고 있다.

딥페이크(Deepfake)는 딥러닝(Deep Learning)과 거짓(Fake)의 합성어로, 인공지능을 통해 특정 인물의 이미지 혹은 음성을 동영상, 사진, 음성파일 등 디지털 콘텐츠에 합성하는 기술을 말한다. 인공지능의 발전과 함께 딥페이크 서비스를 제공하는 수많은 애플리케이션이 개발되면서, 전문가뿐만 아니라 일반인들도 쉽게 딥페이크 콘텐츠를 생산할 수 있게 됐다. 사진을 넣고 채 5초가 지나기 전에 AI가 생성한 합성 영상을 만들 수 있는 딥페이크 제작 앱도 무료로 제공되고 있는 실정이다.

이렇게 절대악으로 인식되고 있는 딥페이크는 처음부터 부정적인 용도로 사용하기 위해 만들어진 기술이 아니다. 딥페이크는 '적대적 생성 신경망(GAN, Generative Adversarial Network)'이라는 AI기술이 사용되는데, GAN은 실제와 가상의 이미지를 보다 정확하게 식별하거나 구현하기 위해 2014년 머신러닝 기법을 활용해 만든 혁신기술이다. GAN은 현재 엔터테인먼트 산업이나 의료분야 등 다양한 영역에서 활발하게 사용되고 있다.


오픈AI 투자를 받은 유니콘기업 신디시아는 딥페이크 더빙 기술을 활용하여 영국 축구선수 데이비드 베컴이 능숙하게 중국어, 힌디어, 아랍어 등 9개 언어를 구사하는 말라리아 퇴치 캠페인 영상을 만들었다. 할리우드를 비롯한 영상 제작 업계에서는 딥페이크 기술로 특수효과를 만들어 내고 있다. 특히 과거를 재현하거나 더 이상 실존하지 않는 인물을 그리고자 할 때 유용하게 활용되고 있다. AR, VR 콘텐츠 제작에도 널리 쓰이고 있다. 미국 플로리다에 있는 달리 박물관은 몇십 년 전에 작고한 훌륭한 예술가 달리를 되살려냈다. 키오스크 속에 등장하는 달리와 사진도 찍고 대화도 할 수 있다.

유관순 열사, 안중근 의사 등 애국선열이나 연예인은 물론 고인이 된 일반 사람들의 생전 모습을 재현하기도 하고, 범죄자를 색출하거나 테러범을 차단하는 등 신원 확인 작업도 딥페이크를 통해 정확도를 높일 수 있다.



독일 뤼벡대 의료정보학연구소는 GAN을 이용하여 원본 영상과 진위 여부를 구별할 수 없을 정도의 딥페이크 의료 영상을 만들어, 인공지능이 질병을 학습하고 정확히 진단할 수 있는 알고리즘을 만들었다. 환자의 사생활 침해 우려와 부족한 의료 영상 데이터 문제를 해결한 것이다. 연세대 치과대학 연구팀이 GAN을 적용해 치아 신경망 사진의 품질을 획기적으로 개선하였고, 대만 타이베이 의대에선 표현이 어려운 환자들의 영상에 딥페이크를 적용해 진찰 역량을 끌어올리기도 했다.

이처럼 딥페이크 기술은 많은 산업분야에서 필수 기술로 자리를 잡으며 유용하게 활용되고 있고 미래 전망도 밝지만, 한편으로는 가짜 뉴스나 성범죄에 악용되면서 피해가 급증하고 혼란을 가중시키고 있다.

최근에는 AI 영상 속 사람의 피부나 머리카락까지 실제와 너무 비슷한 이미지를 생성하기 때문에, GAN의 수준이 이미 '불쾌한 골짜기(uncanny Valley)'를 뛰어넘은 것으로 판단되고 있다. 불쾌한 골짜기는 인간이 '인간이 아닌 존재'를 볼 때, 그 존재가 인간과 많이 닮으면 닮을수록 호감도가 높아지지만, 구별하기 어려울 정도로 너무 똑같아지면 오히려 불쾌감을 느낀다는 의미로 독일 정신과 의사 에른스트 옌치가 사용한 개념이다. 미국 버클리대 연구진은 실제 얼굴과 AI가 합성한 얼굴을 구별하는 실험을 통하여, 사람들이 AI가 합성한 가짜를 판별하지 못하며 오히려 가짜를 더 신뢰한다는 연구결과를 발표하기도 했다.



이런 상황에서 가짜 영상을 찾아내는 기술도 급속도로 진화하고 있으며, 시장규모도 급증하고 있다. 인텔은 사람 얼굴의 혈류 변화를 추적해 실시간으로 딥페이크 유무를 판별하는 '페이크캐처'를 개발했고, 구글 딥마인드는 AI 플랫폼에서 만들어진 이미지에 사람의 눈에는 보이지 않는 워터마크를 넣어서 딥페이크를 쉽게 식별할 수 있게 하고 있으며, 메타, 오픈AI 등도 미 대선을 앞두고 가짜 뉴스를 가려내기 위해 딥페이크 이미지에 워터마크를 심겠다고 밝혔다. 미 국방부 산하 연구기관인 DARPA는 딥페이크 생성과정에서 나타날 수 있는 아주 미세한 'AI의 실수'를 단서로 가짜를 찾아내는 기술을 개발했다. 월스트리트저널은 "딥페이크 기술 향상과 함께 새로운 검증 방법이 개발되면서 쫓고 쫓기는 '고양이와 쥐' 게임 같은 양상이 일어나고 있다"고 했다.

그간 AI기술과 시장의 성장에 환호하는 사이, 'AI의 역습'이 본격적으로 시작된 것이다. 마치 하늘에서 떨어진 '부시맨의 콜라병'과 같은 느낌이다. 항상 그렇지만 양면성을 지니고 있는 혁신기술을 어떻게 받아드리고 다룰지는 우리들의 몫이다,
TOP