/사진제공=게티이미지.
가령 사용자가 검색창에 특정 키워드를 입력했을 때 수천~수천억 개 웹페이지에서 검색된 자료를 이용자 목적에 따라 어떤 순서로 보여줄지 검색 알고리즘이 결정한다. ‘카카오T 택시’ 호출 서비스도 알고리즘을 기반으로 작동한다. 스마트폰으로 택시를 호출하면 반경 몇 ㎞의 어떤 택시를 연결할지 정해진 절차에 따라 매칭한다.
# 알고리즘 사회가 위기를 맞았다. 곳곳에서 공정성 시비가 붙었다. 공정거래위원회는 “과거 네이버쇼핑·네이버TV 등 자사 서비스에 유리하도록 검색 알고리즘을 조작했다”며 네이버에 267억원에 달하는 과징금을 부과했다. 샵N·스토어팜·스마트스토어 등 네이버 오픈마켓 상품이 우선 노출되도록 검색 알고리즘을 고의로 바꿨다는 게 공정위의 판단이다. 네이버는 반박했다. 공정위가 해당 기간(2010~2017년) 품질개선을 위한 50여차례 이뤄진 알고리즘 개편과정 중 특정 5개 작업만 임의로 골라 불공정행위로 몰아간다며 억울해한다. 네이버가 행정소송을 예고한 만큼 시시비비는 법정에서 가려지겠지만 결과에 따라 서비스 신뢰에 금이 갈 수 있다.
# 알고리즘은 사실 ‘절대반지’가 아니다. 알고리즘은 가치중립적이고 공정해야 한다는 생각 자체가 편견일 수 있다. 작동 과정엔 개입하지 않을지라도 그 알고리즘을 만든 것은 결국 사람이다. 개발자 혹은 서비스 기업의 주관이 반영될 수밖에 없다. 또 오류가 발생하거나 서비스 환경이 바뀌면 수시로 업그레이드해줘야 한다. 이 과정에서 공정성 시비가 붙을 개연성이 다분하다. 플랫폼 당사자 입장에선 ‘업데이트’지만 불만이 있는 쪽에서 보면 ‘조작’이다. 이 같은 딜레마를 풀기 위해서라도 사회적으로 영향이 큰 알고리즘의 경우 영업기밀 침해, 어뷰징 등의 부작용을 최소화하면서도 기준과 원칙을 투명하게 검증할 수 있는 해법을 찾아야 한다.
스스로 학습한 데이터를 판단기준으로 삼는 AI 알고리즘은 다를까. 수 년에서 수십 년 된 AI 학습용 데이터 중 편견과 편향에 찌든 데이터는 부지기수다. 트위터가 동시에 올린 흑인과 백인 중 주로 백인사진을 섬네일(이미지 축소판)로 채택해 인종편향 시비에 휘말리고 구글 포토AI가 흑인여성을 고릴라로 분류하는 사고도 데이터 학습과정의 오류다. 인종·성차별 가치관도 하루가 다르게 바뀐다. 과거 데이터로 학습한 AI 모두 ‘꼰대 AI’로 치부될 날이 올지도 모르겠다.
이 시각 인기 뉴스
AI가 이용자들을 필터버블(개인 성향에 맞게 필터링된 정보로 이용자 스스로 편향된 정보에 갇히는 현상)에 빠지게 하고 확증편향(보고 싶은 것만 보는 성향)으로 가득 찬 대중심리가 알고리즘을 불신하는 악순환도 반복된다. 알고리즘의 위기보다 심각한 것은 코로나19(COVID-19) 이후 점점 더 편견과 편향이 만연하는 우리 사회의 위기 아닐까.