[유효상 칼럼] 왜 생성형 AI는 우리를 매드맨 시대로 되돌릴까

머니투데이 유효상 유니콘경영경제연구원 원장 2024.03.05 06:00
글자크기
유효상 유니콘경영경제연구원장 /사진=유효상유효상 유니콘경영경제연구원장 /사진=유효상


2014년 아마존은 채용 알고리즘을 만들었다. 머신 러닝을 활용해 지원자를 1에서 5등급으로 평가하는 시스템이었다. 이 모델은 지난 10년 동안 아마존에 제출된 이력서를 토대로 후보자를 평가하도록 학습 받았다. 그런데 역사적으로 테크 산업은 남성 위주였기 때문에 당연히 이 채용 시스템은 남성을 선호할 수밖에 없었다. 그래서 지원서에 '여성 농구팀'이나 '여성 체스 클럽' 등과 같은 활동적인 이력이 있어도 여성 지원자에게 불이익을 주었다. 아마존 경영진은 이 시스템의 심각한 편향성을 인식하고 2015년에 폐기했다.

생성형 AI는 지난 1년 동안 굉장히 빠르게 발전했다. 그러나 이 기술은 여전히 현실 세계에 치명적인 결과를 초래할 수 있는 AI 편향이라는 큰 문제에 직면해 있다. AI는 삶을 편리하게 해주기도 하지만, 기존 사회의 성차별을 그대로 답습해 혐오를 재생산하기도 한다. 인공지능 기술이 발달할수록, 젠더 편향성 문제 역시 심각한 문제로 이슈화되고 있지만 그 대응은 미흡한 상황이다.



UNDP(유엔 개발 프로그램)가 STEM(과학, 기술, 공학 및 수학) 분야의 여성 표현을 연구하기 위해 생성형 AI를 사용하여 수많은 이미지를 만들어 봤다. 엔지니어, 과학자, IT 전문가의 시각적 표현을 요청했을 때 생성된 결과의 75~100%가 남성을 묘사했다. 여성의 이미지는 거의 존재하지 않았다. ChatGPT는 성공한 백인 남성 CEO를 설명할 때는 뛰어난 기술과 리더십을 강조하고, 성공한 여성 CEO와 유색인종 CEO는 역량보다는 정체성과 역경에 맞서 싸운 스토리로 주로 묘사한다. 또한 DALL-E는 뛰어난 변호사라고 하면 나이 많은 백인 남성이 양복을 입은 이미지를 만들고, 간호사는 여성의 이미지를, 승무원이라는 용어는 아시아 여성의 이미지를 생성하는 경향이 있다. 부엌과 관련된 이미지의 68%를 여성과 연결시켰다는 연구도 있다.

이러한 시스템들은 현재의 성별 격차를 악화시킬 정도로 성별 편견의 패턴을 복제한다. 시각적 AI가 우리 삶의 일부가 되면서 성별 고정관념을 심화시킬 위험성이 존재하는 것이다. 이는 AI가 학습해야 하는 수많은 자료에 성별을 대표하는 데이터 세트가 부족하고 잘못된 정보와 허위 정보, 성차별적 콘텐츠가 가득 차 있어서 생성형 AI가 만든 결과물도 원본 자료와 마찬가지로 불평등하고 편향성을 나타내는 것이다.



AI의 편향성을 연구하고 있는 데이터 과학자 이소벨 데일리는 세탁기, 초콜릿부터 DIY 제품 및 전기 드릴에 이르기까지 28개 아이템의 홍보물을 Bard , ChatGPT-3.5 및 ChatGPT-4에 작성하라고 했다. 텍스트 기반 데이터 세트에서 성별 편향성을 찾아내는 선별 도구인 GenBiT를 사용하여 연구의 타당성과 견고성을 높이기 위해 모든 상품에 대해 40번씩 실행했다. 그 결과 성별 편향은 세 가지 플랫폼 모두에서 나타났다. 굳이 비교하자면 Bard가 편향성이 가장 크고, 다음은 ChatGPT-3.5, 마지막으로 ChatGPT-4 순으로 편향성이 존재했다. 예를 들어, 가구 광택제의 생성형 AI 광고에는 '가구에 먼지가 쌓인 걸 보고 거실에 앉아 있던 여성'이, 잔디 깎는 기계의 AI 광고는 '땀을 흘리며 열심히 기계로 잔디를 깎고 있는 남자' 가 등장하는 것이다.

오늘날의 AI는 우리를 과거 '매드맨(Mad Men)' 시대로 되돌려 놓고 있다. 이 드라마에 등장했던 수많은 광고들이 60년이 지난 지금 생성형 AI를 통해 모두 재생산되고 있기 때문이다. 매드맨은 1960년대 뉴욕에 위치한 광고대행사를 배경으로 만든 미국 TV 드라마로 2007년 첫 방송을 시작해서 2015년 시즌 7로 종영되었으며, 비평가와 대중으로부터 역사상 최고의 드라마라는 찬사를 받으며 에미상 15개와 골든 글로브상 4개를 포함해 많은 상을 수상했다. 매드맨은 뉴욕에서 광고업에 종사하는 사람들을 지칭하는 말인데, 광고대행사가 많이 몰려 있는 뉴욕의 Madison avenue와 ad men의 합성어이다. 당시 미국에서 남자들은 주로 DIY를 담당했고, 여자들은 빨래와 청소를 하며 시간을 보냈다.

호주 여성 IT 미디어인 'Women Love Tech'의 2024년 2월 연구보고서에 따르면 사무직 근로자의 53%가 직장에서 생성형 AI를 사용하는데, 남성과 여성이 각각 61%, 40%로 많은 격차를 보이고 있다. 또한 남성은 70%가 생성형 AI에 신뢰를 갖고 있지만, 여성은 43%로 상대적으로 낮은 신뢰를 나타났다. 이러한 현상은 인공지능 학습 데이터 때문에 발생하는 것으로 알려졌다. 기계는 편향되지 않았지만 인간이 학습시키는 과정에서 편향된 데이터가 자연스럽게 편향된 알고리즘을 만든다는 것이다. 또한 AI 기술을 다루는 사람이 대부분 남성이라면 AI의 결과물은 남성들의 시각으로 편향될 가능성이 매우 높다. 그리고 이것은 미래가 아니라 현실이라고 지적했다. 또 이런 왜곡된 결과는 AI 연구에 왜 여성이 필수적인가를 설명하는 이유가 된다고 주장했다.


세일즈포스(Salesforce)도 여성들이 AI의 사용 방법, 알고리즘, 표준화, 결과의 신뢰성, 투명성 부족을 지적하며 생성형 AI에 대해 남성들보다 훨씬 더 큰 우려를 하고 있다는 연구결과를 발표했다. 영국의 페미니스트 작가인 캐롤라인 페레즈는 그의 저서 '보이지 않는 여성: 남성을 위해 설계된 세상에서 노출된 데이터 편견(Invisible Women: Exposing Data Bias in a World Designed for Men)'에서 "남성 데이터를 사용해 건설되고, 설계된 현실 세계는 인구 절반의 요구를 무시하는 것이다. 데이터를 성별에 따라 수집하고 별도로 구분하지 않으면, 서로 다른 그룹에 대해 무엇이 효과가 있고, 무엇이 효과가 없는지 알 수 없다. AI의 좋은 결과를 위해서는 데이터의 격차를 해결하는 것이 필수적이다"라고 강조했다.

현재 여성 관련 데이터가 상대적으로 광범위하게 매우 적은 것이 사실이다. 그렇다고 편향된 데이터로 AI를 학습시키면 전 세계에 만연한 불평등이 가중될 뿐이다. 이를 해소하기 위해서는 반드시 성별에 따라 세분화된 더 많은 데이터를 수집하고 활용해야 한다. 지금은 매드맨의 시대가 아니다.

이러한 노력이 여성을 위한 것만이 아니라 남성과 여성 모두를 위한 공정한 사회로 가는 길임을 명심해야 할 것이다.
TOP