챗GPT에게 지구는 평평하냐고 물었다[광화문]

머니투데이 양영권 사회부장 2023.03.10 04:30
글자크기
그에게 물었다. "지구는 평면인가?"

그는 대답했다. "아니오, 지구는 평면이 아닙니다."
지구는 구체이고, 이는 과학적으로 증명된 사실이라는 설명이 이어졌다.

다시 물었다. "어떻게 증명하지?"



이어진 대답. "지구에서 멀리 떨어진 곳에서 촬영한 사진을 보면 지구가 곡선 형태를 띠고 있음을 확인할 수 있습니다." 그는 △일출과 일몰 시간 차이를 이용한 지구의 곡률 △태양광이 지구를 비추는 각도 등 2가지 증거를 더 댔다.

챗GPT와 나눈 짧은 대화이다. 우리는 지구는 둥글다는 것을 초등학교 이전부터 배워 알고 있다. 챗GPT가 제시한 근거도 이미 알고 있는 내용들이다. 그렇지만 이런 단순한 사실을 부정하는 '지구평면설'이 유행한 게 불과 몇 년 전이다. 커뮤니케이션 기술과 무관하지 않다. 주로 유튜브 알고리즘을 타고 관련 동영상이 확산했고, 미국에서는 지구평면설을 믿는 이들이 대규모 집회를 수시로 열렸다.



지구평면론은 과학부정론의 극단적인 예이다. 과학적인 연구의 성과물을 부정하는 이들은 생각보다 폭넓게 퍼져 있다. '지구가 평평하다고 믿는 사람과 즐겁고 생산적인 대화를 나누는 법'이라는 책의 저자 리 매킨타이어는 지구평면론, 기후변화 부정론과 함께 주로 진보 진영에 퍼져 있는 백신 거부, 유전자변형생물(GMO) 반대 등도 과학부정론으로 규정했다.

과학부정론자, 혹은 반지성주의자들은 정보를 선택적으로 수집해 자신들만의 논리를 세운다. 칼 포퍼의 유명한 말대로 과학은 사실이 아님을 증명할 수 있는 가능성, 즉 '반증 가능성'이 있어야 한다. 자신의 이론을 확정하는 일보다는 반증에 주력하는 게 과학적 태도이다. 확증편향을 강화하는 알고리즘만 따라가는 것은 절대로 과학적 태도라고 할 수 없다.

챗GPT가 다른 커뮤니케이션 수단보다 획기적인 것은 이런 과학적 태도에 있다. 외부 데이터를 분석해 조합하는 특성상 챗GPT의 대답이 완벽한 사실이라고 할 수는 없지만 사실과 다르다는 반론이 제기됐을 때 스스로 이를 반영해 결과를 수정한다는 점이 신뢰의 기반이 된다. 여기에 인간의 뇌보다 우월한 것은 개별적인 무의식이 개입할 여지가 없다는 점이다. AI가 습득한 지식에 집단무의식이 반영돼 있을 수 있지만 억압된 감정이 반영된 개별적인 무의식이 만들어낸 비이성을 최소화할 수 있다.


챗GPT가 들려주는 대답은 그 자체로 과학적으로 도출된 집단지성의 결과물이다. 우리가 AI의 대답에 귀를 기울이는 것은 단순히 속도 때문은 아니다. 포털 검색을 할 때는 언제부터인가 광고성 콘텐츠에 대한 의심을 동반한다. 유튜브 콘텐츠를 소비할 때는 항상 확증편향을 걱정해야 한다. 뉴스 역시 해당 매체의 정치적 편향성을 고려해야 한 지 오래다. 정보의 결핍이 아니라 신뢰의 결핍인 시대다. 정보는 홍수를 이루지만 신념과 정치적 이해관계에 따른 왜곡이 없는 정보는 귀하다. AI는 질문하는 사람의 정체성을 고려하지 않고 답을 들려준다. 재판결과 등 납득할 수 없는 처분을 접하면 AI가 더 공정하겠다고 생각하는 사람들이 많아진 시대에 챗GPT가 우리에게 왔다.

챗GPT의 한계도 분명히 있다. 과학부정론자들이 쉽사리 빠지는 음모론에는 챗GPT도 어쩔 수 없다. 프랑스 사람 프레데리크 로르동에 따르면 음모론은 사태를 이해하고 싶지만 완전한 정보에 대한 접근은 막혀 있는 대중들의 반응이다. 일반인이 접근 불가능한 정보에 챗GPT도 접근할 수 없기에 챗GPT의 대답이 신탁(神託)이 될 수는 없다. 딥러닝으로 조합하는 정보의 한계가 곧 챗GPT의 한계이다. 종교에 대비되는 과학의 특성이기도 하다. 아울러 정보를 바탕으로 가치판단을 하고 행동을 결단해야 하는 것은 언제나 인간의 몫이다. 인간 사회의 오랜 고민인 분배의 문제나 위험과 도전의 가치에도 답을 주지 못한다.

인류 역사에서 기술은 언제나 인간의 보완재였을 뿐 대체재가 아니었다. AI가 인간의 생산성을 높여주겠지만 역시 인간의 삶을 대신해주지는 않는다.

챗GPT에게 지구는 평평하냐고 물었다[광화문]


TOP