![이미지투데이](https://thumb.mt.co.kr/06/2024/02/2024020509015677438_1.jpg/dims/optimize/)
5일 글로벌 시장 조사기구 가트너에 따르면 아키프 칸(Akif Khan) 가트너 VP 애널리스트는 "지난 10년간 AI 분야는 수많은 변곡점을 거치며 합성 이미지 생성이 가능해졌고 이렇게 인공적으로 생성된 실존 인물의 얼굴 이미지는 딥페이크로 잘 알려져 있다"며 "악의적인 공격자가 생체 인증을 약화시키거나 비효율적으로 만드는 데 사용될 수 있다"고 밝혔다.
현재 얼굴 생체인식을 이용한 신원확인 및 인증 절차는 사용자의 진위여부 평가를 위해 PAD(프리젠테이션 공격 탐지) 기술을 활용 중이다. PAD는 공격자가 사진, 영상, 가짜지문 등을 이용해 이용자를 사칭하는 것을 탐지하는 데 쓰인다. 그러나 이 역시 그대로 믿기 어려울 것이라는 게 칸 애널리스트의 설명이다.
가트너는 "얼굴 생체인식을 넘어선 AI 딥페이크로부터 기업을 보호하기 위해서는 CISO(최고정보보안책임자)와 위험관리 리더들이 어떤 공급업체를 선택하는지가 중요하다"며 "현재의 표준을 뛰어넘는 역량 및 계획을 갖추고 새로운 유형의 공격을 모니터링, 분류, 정량화할 수 있는 공급업체를 선택해야 할 것"이라고 했다.
또 "특히 아이디(ID) 및 액세스(접속) 관리를 담당하는 보안 및 위험관리 리더들은 실제 사람의 존재 여부를 증명할 수 있는 기술을 도입하고 계정 탈취를 방지하는 추가적 단계를 구축하는 등 AI 기반 딥페이크 공격 위험을 완화할 수 있는 조치를 취해야 할 것"이라고 했다.