생성형 AI를 현명하게 활용하기 위한 체크리스트/그래픽=이지혜
"생성형 AI로 업무자료를 손쉽고 빠르게 만들 수 있지만 자료의 진위확인과 정보유출에 반드시 유의해야 한다."
지난해 말 방송통신위원회(이하 방통위)와 한국지능정보사회진흥원(NIA)이 공동발간한 '생성형 AI 윤리 가이드북' 내용 중 일부다.
빠르게 답변을 생성하는 AI에 대한 경이로움에 도취해 무분별하게 활용하거나 과도하게 AI에 의존할 경우 심각한 사회적 문제가 생길 수 있다는 것이다. 방통위·NIA는 AI 윤리 가이드북을 발간한 이유에 대해 "사실이 아닌데도 정답처럼 보이는 그럴싸한 생성형 AI의 답변은 정보획득에 혼란을 초래한다"며 "생성형 AI를 긍정적으로 활용하기 위해서는 정부·기업·이용자 모두의 노력이 필요하다"고 했다. AI 서비스를 제공하는 기업은 생성형 AI의 이면을 냉철하게 진단해 윤리적이고 책임감 있게 기술을 설계해야 한다. 정부도 모든 국민이 안전하게 AI를 활용할 수 있도록 이용자 보호를 위한 제도보완에 노력을 기울여야 한다. 또 학교·기업 등은 생성형 AI의 위험에 대한 교육을 통해 생성형 AI를 올바르게 잘 활용할 수 있도록 알려야 한다는 것이다.
'불완전한 AI'로 인한 폐해를 줄이기 위해 유럽연합(EU), 미국 등 주요국이 잇따라 규제를 만들고 있다. 사후적으로나마 AI의 역기능을 막겠다는 것이다. 다만 사후규제는 예방책만큼 효과를 발휘하기 힘들다. 방통위·NIA는 "사전에 역기능을 예방할 수 있는 방법은 이용자의 역기능 대응역량 강화"라며 "이용자가 생성형 AI를 활용하기 전에 윤리적 책임의 중요성과 올바르게 사용해야 할 필요성에 대해 이해한다면 역기능을 최소화하면서 긍정적이고 생산적으로 생성형 AI를 활용할 수 있을 것"이라고 강조했다.