AI의 급격한 발전에 대해 경계감을 드러내는 건 비단 제프리 힌턴 박사뿐만은 아니다. 최근 백악관은 주요 AI 개발사의 수장인 순다르 피차이 구글 CEO, 사티아 나델라 마이크로소프트 CEO, 샘 올트먼 오픈AI CEO, 다리오 아모데이 앤스로픽 CEO 를 초대해 AI의 위험으로부터 대중을 보호할 것을 촉구했다. 지난 11일에는 AI도구를 규제하는 법안 초안이 유럽의회의 위원회를 통과했다. 이 법안은 다음 달 본회의에서 다뤄질 예정이다.
"AI(거대언어모델)는 발명이 아니라 발견이라는 말이 더 정확합니다. 구조적으로 왜 할루시네이션(AI의 허위정보)이 발생하는지 밝혀낼 수 없고, 결국 경험적으로만 검증할 수 있기 때문이에요. 테슬라의 로보택시도 마찬가지입니다. 경험적인 모델에는 한계가 있습니다."
"AI는 지구상의 모든 사람들이 쓰는 물건입니다. 그러면 아이들 기준으로도 안전해야합니다. 부작용이 이미 보이는데 조심스럽게 쓰자는 말은 이 부분을 놓치고 있습니다."
박 의장은 AI가 가져올 일하는 방식의 변화가 제2의 산업혁명과도 같다고 평가했다. 첫 번째 산업혁명이 몸으로 할 수 있는 일을 기계로 자동화해주는 '몸의 혁명'이었다면 2번째 산업혁명은 인간의 정신을 대체하는 혁명이라는 설명이다. 이 때문에 더 엄격한 기준의 접근법이 필요하다고 주장한다.
이 시각 인기 뉴스
"사람의 몸에 대해서는 과학적인 실험 방법을 거칩니다. 예를 들어 신약을 내놓을 때 전임상, 1상, 2상, 3상을 거쳐 시판을 하게 됩니다. 시판을 하고 나면 실제 사용 케이스 속에서 부작용을 추적하는 4상이 시작됩니다. 시판이 된 뒤 몇 년이 지나 허가가 취소되는 경우도 있습니다. AI 혁명은 인간의 정신에 대한 실험입니다. 그런데 어떤 규칙이 있는가라는걸 지금 묻고 있는 겁니다."
☞다음은 박태웅 의장과의 인터뷰 중 일부를 일문일답으로 옮겨 놓은 내용
- AI로 촉발된 급격한 변화에 찬성하는 쪽인가 아니면 위험성이 있다고 보나?
지나치다고 생각한다. 오픈AI가 내놓은 챗GPT 같은 경우 그 확산 속도에 있어 인류 역사상 유래가 없는 수준이다. 샘 알트만 조차도 이게 위험하다고 계속 얘기를 한다. 근데 왜 당신은 개발하냐고 물으면 다들 "내가 안 해도 누군가 할 것이다"라고 답한다. 굉장히 비겁한 답변이다. 이 친구들이 AI쪽으로는 정말 뛰어난 재능일지 모르겠지만 윤리적이거나 사회적으로는 그렇게 뛰어나다고 볼 수 없다. 그래서 미처 보지 못했던 함정들이 있거나 모순이 있을 때 되돌릴 수 없게 된다.
- 오픈AI도 최근에는 오픈소스 정책을 버리고 주요 기술을 공개하지 않는다
AI가 작동을 잘하는지 엉터리인지를 알 수 있는 유력한 방법 중에 하나가 학습 데이터를 들여다보는 것이다. 사진을 학습할 때 사용하는 이미지넷이 대표적이다. 이미지넷의 사람 카테고리를 보면 사진 아래 실패자 / 위선자 / 루저 / 허영 주머니 / 낙오자와 같은 라벨이 있었다. 2019년이 돼서야 비로소 사람 범주 2,832개 중에 1,593개, 즉 56%에 해당하는 라벨을 안전하지 않다고 간주해 삭제했다. 챗GPT가 5조 개의 문서를 학습했다고 하는데 그 5조 개의 문서에는 인류가 지금까지 쌓아온 온갖 편견과 선입견과 위선과 모순이 들어가 있다. 그런데 오픈AI는 GPT-4부터 어떤 데이터를 가지고 학습했는지를 전혀 밝히지 않고 있기 때문에 감시가 불가능하다.
- 산업혁명을 촉발시킨 증기기관을 사용할 때도 원리를 알지 못했지만 인류에 도움이 됐다는 이야기도 있는데?
반만 맞는 이야기다. 증기 기관이 왜 작동하는지를 이론적으로 함수를 만들어서 설명할 수 있었던 건 그 뒤가 맞다. 하지만 증기기관이 어떤 기능을 내는지는 우리가 다 알고 있었고 통제할 수 있었다. AI는 오히려 신물질이나 신약에 더 가깝다. 어떤 부작용이 있을지 모르고 실제로 많은 부작용이 이미 보이고 있다.
※'티타임즈TV'에 오시면 더 많은 영상을 보실 수 있습니다