최연구 과학문화칼럼니스트
얼마 전 철학 관련 학회가 대거 참여한 한국철학자연합대회가 열렸다. 필자가 속한 포스트휴먼학회도 '챗GPT 스캔들'이란 도발적 주제로 세션을 개최했고 필자는 토론자로 참석했다. 세션발표에서 철학자 정성훈 인천대 교수는 "챗GPT는 인간의 명령에 따라 데이터 기반으로 언어를 조립해 인간보다 압도적으로 빨리 답변하지만 인물, 책, 사건 등을 아무렇게나 조합해 문장을 만드는 등 속도와 양 외에는 어떤 우월성도 없다"고 비판했다. 또한 챗GPT와의 '인공소통'은 신뢰, 위험, 책임, 인격화 등 여러 가지 문제가 있다고 진단했다. 챗GPT가 한계, 오류, 편향을 보여주고 있으며 그리 간단한 문제가 아님에는 공감한다. 언어학자 노엄 촘스키는 챗GPT는 놀랍긴 하지만 표절과 무감정 등 악의 평범성을 보여주는 슈퍼 자동완성 기술이라고 폄하하기도 했다. 많은 인문사회학자는 챗GPT가 그럴듯하게 들리는 가짜 내용을 생성하는 '환각'(hallucination)에 대해서도 신랄하게 비판한다. 하지만 마냥 그렇게 매도할 수만은 없지 않을까.
AI도 증기기관, 활판인쇄기, 인터넷과 마찬가지로 인간이 만든 도구다. 처음부터 완벽한 도구는 없고 모든 도구는 발전한다. 구글 번역기도 초기버전은 황당한 번역을 제공하는 경우가 많았다. 하지만 2007년 출시 후 16년이 지난 지금은 꽤 만족스러운 번역을 제공한다. 그런데 챗GPT가 출시된 것은 2022년 11월 말로 반 년이 좀 지났을 뿐이다. 앞으로 더 개선되고 정교해질 것이다. 생성형 AI가 어떻게 발전할지는 결국 인간 자신에게 달렸으며 더 적극적인 인간의 개입과 피드백이 필요하다. 챗GPT의 일부 답변이 사실을 왜곡한 환각이고 편향과 오류투성이라고 비판하는 건 과잉의 편견일 수 있다. 가령 비행기는 대형 사고가 많아 위험한 교통수단이고 자율주행차도 오작동으로 인한 인명사고가 일어날 수 있어 위험하다고 비판한다. 하지만 비행기 사고는 자동차에 비하면 빈도가 훨씬 적고 자율주행차도 인간의 부주의로 인한 사고와 비교하면 사고율이 획기적으로 낮다. 사실은 더 안전하지만 위험하게 보이는 착시현상이다.
또한 '인공적'이라는 용어가 부정적 뉘앙스로 사용되는 것도 문제다. 인공적이라 함은 인간이 만든, 인간의 상상력과 노력의 산물이란 의미일 텐데 그렇다면 도시, 기계, 언어, 철학 등도 모두 인공적인 것이다. 인공적인 것은 문화적이고 인간적인 것이라고 해도 틀린 말은 아닐 것이다. 요컨대 챗GPT는 현대 과학기술문명이 이뤄낸 가장 문화적인 산물이 아닐까.