(왼쪽) 딥페이크 사이트에 업로드하기 전의 원본 사진. (오른쪽) 업로드한 뒤 옷 부분을 선택하고 '생성'을 누르니 1분만에 딥페이크 누드 사진이 만들어졌다. /사진=최우영 기자
29일 구글을 비롯한 주요 검색엔진에서 'AI'와 음란물을 연상시키는 단어를 합성해 검색하면, 수십개 이상의 앱과 웹사이트가 노출된다. 대부분 해외에 서버를 둔 것으로 추정되는 이런 서비스들은 성인 여부를 묻긴 하지만, '맞다'고 클릭하면 별다른 인증 없이 회원 가입을 유도한다. 가입 시 요구는 이메일 인증이 전부고, '생성물에 대한 책임은 이용자에게 있다'는 형식적 경고에 그친다.
딥페이크 영상의 제작도 손쉬운 편이다. 구글플레이에서 무료 AI 얼굴합성 앱을 내려받은 뒤 영상 템플릿을 선택하고, 합성을 원하는 얼굴 사진을 업로드하면 된다. 순식간에 해당 영상 속 인물이 얼굴 사진의 주인공으로 바뀐다.
네이버에 'AI OOO'를 검색하면 나오는 결과물. /사진=네이버 캡처
이처럼 전신 사진 또는 얼굴 사진 한 장만 공개돼 있으면 누구나 딥페이크의 피해자가 될 수 있는 상황이다. 이 때문에 최근 적지 않은 이들은 소셜미디어를 비공개 계정으로 전환하거나, 게시물 중 얼굴이 드러난 것들을 지우는 경우도 잦다. 여성 직장인 A씨(36)는 "SNS 친구들이 대부분 지인이지만, 딥페이크 영상이 지인들로부터 만들어지는 경우가 많다고 들었다"며 "불안한 마음에 페이스북 계정을 닫고 인스타에선 얼굴 사진을 다 내렸다"고 전했다.
손쉬운 딥페이크 제작에도 불구, 이러한 툴의 제공 업체를 처벌하기 위한 법적 근거는 부족하다. 한 법조계 관계자는 "칼을 이용한 살인이 일어났다고 해서 칼 제작업자나 칼 판매업자를 처벌할 수는 없는 것과 같다"고 설명했다. 이 때문에 다른 유해 정보처럼, 최소한 미성년자들을 대상으로 딥페이크 제작 툴에 대한 접근을 차단해야 할 필요성도 거론된다.
이 시각 인기 뉴스
한 업계 관계자는 "미국은 테일러 스위프트와 같은 유명인이 딥페이크 피해를 본 이후에야 딥페이크를 성적인 목적으로 사용하면 처벌하는 법안을 추진하게 됐다"며 "최근 한국에서도 미성년 피해자 등이 발생하면서 관련 법안에 대해 사회적으로 논의할 수 있는 공감대가 형성될 것"이라고 내다봤다.