아동 성착취 사진·영상 'AI'로 합성해 떼돈…발칵 뒤집힌 영국
머니투데이 김하늬 기자
2023.06.28 18:32
/사진=게티이미지뱅크 소아성애자들이 인공지능(AI) 기술을 사용해 아동 성적학대 사진을 만들어 팔고 있다는 외신 보도가 나왔다.
28일 영국 BBC방송은 파트레온(Patreon)이나 픽시브(Pixiv)과 같은 온라인 콘텐츠 공유 플랫폼에서 아동 얼굴을 합성한 성적 사진이 다수 유포되거나 거래되고 있다고 보도했다. 아동 성적 학대를 묘사하는 합성 사진은 실제 사진과 동일한 법적 책임을 지게 된다. 영국에서는 이를 소유, 게시, 전송하는 모든 게 불법이다.
영국 경찰 온라인 아동 학대 조사팀은 "이런 콘텐츠가 유포되고 있는 점을 파악했다"고 밝혔으며 경찰청장협의회는 "플랫폼이 이를 방관하며 거대한 이익을 내고도 도의적 책임을 지지 않는 건 말이 안 된다"는 입장을 밝혔다
보도에 따르면 유포되는 아동 성착취 사진들은 AI 스타트업이 만든 '스테이블 디퓨전' 앱(애플리케이션)으로 합성됐다. 이 앱은 주요 키워드를 넣으면 이미지를 만들어준다. 지난해 공개된 '오픈소스' 버전은 사용자가 필터를 제거하고 불법 이미지를 포함한 모든 이미지를 생성하도록 할 수 있게 되면서 악용된 것으로 전해진다.
일부 소아성애자들이 이 앱을 이용해 강간과 같은 아동 성적 학대 이미지나 동영상을 만들고, 돈까지 받는 사례가 발견됐다. BBC는 "이들은 일부 콘텐츠를 플랫폼에 올린 뒤 아래 링크로 구독료 결제를 유도해 더 많은 사진을 공유하고 있는 것으로 보여진다"고 전했다.
합성 사진이 유통된 것으로 지목된 일본 애니메이션 플랫폼 픽시브 측은 "이 문제를 중요하게 받아들이고 있으며 해결하기 위해 노력 중"이라고 BBC에 전했다. 그러면서 "미성년자와 관련된 모든 성적 콘텐츠를 사실적으로 묘사하는 건 금지하고 있다"고 설명했다. 또 다른 플랫폼인 파트레온 측은 "불법 아동 성학대 사진은 우리회사의 정책을 위반한 것"이라며 "문제가 생긴 계정은 즉시 삭제한다"고 전했다. 그러면서 "AI가 합성한 자료를 차단할 것"이라며 "10대를 안전하게 보호하기 위한 전담 팀과 기술, 파트너십 등을 동원할 것"이라고 해명했다.
<저작권자 © ‘돈이 보이는 리얼타임 뉴스’ 머니투데이. 무단전재 및 재배포, AI학습 이용 금지>