"AI, 인간을 동물처럼 대할 수 있다"…오픈AI 쿠데타 이유?

머니투데이 뉴욕=박준식 특파원 2023.11.22 01:18
글자크기
"AI, 인간을 동물처럼 대할 수 있다"…오픈AI 쿠데타 이유?


사실상 해체 상태에 놓인 인공지능(AI) 혁명의 기업 오픈에이아이(OpenAI)에서 가장 미스테리한 인물은 이사회 멤버이자 수석개발자인 일리야 수츠케버다. 그는 창업멤버 중의 한 명이면서도 이사회를 대표해 창업자 샘 알트만에게 해고를 통보해 이번 사태를 촉발했으며 또 72시간 이내에 다시 마음을 바꿔 자신의 결정을 후회한다고 발표했다.

21일 월스트리트저널(WSJ)은 오픈AI의 수석개발자이자 실리콘밸리에서 가장 저명한 인물인 수츠케버가 'AI의 위험성을 인지하고나서 개발 속도를 늦추기 위해 일을 벌였다'는 분석을 내놓았다. 그는 인류애의 근본에서 올트먼의 축출을 주도하면서 이사회 쿠데타를 벌였지만 다시 자신이 만든 오픈AI가 해체될 위기에 몰리자 결정을 후회하고 있다는 설명이다.



실제로 수츠케버는 지난 17일 정오에 영상채팅으로 올트먼을 불러 해고를 통보하면서 뉴스 릴리스까지 책임졌다. 하지만 주말에 대혼란이 보도되고 회사 임직원들이 크게 동요하자 20일 월요일 오전에 다시 자신의 소셜미디어인 엑스(X)에 "이사회의 행동에 참여한 것을 깊이 후회한다"고 썼다. 게다가 770명의 임직원들 가운데 700명 이상이 이사회 해체를 하지 않으면 모두 마이크로소프트(MS)로 이직해 알트만을 따르겠다고 연판장을 돌리자 그 성명서에 자신도 서명해 동참의사를 밝혔다.

이 남자의 속내는 오락가락하는 듯 보이지만 한편에선 스스로도 주체할 수 없는 기술개발의 속도를 염려하면서 AI가 인류에 위협이 되는 수준으로 발전하는 것을 경계하는 마음이 읽힌다는 지적이 나온다는 것이다.



사실 수츠케버의 사회이력은 그 천재성에 비해서는 짧고 단출하다. 이스라엘 오픈 대학교(Open University of Israel)에서 잠시 근무한 후 토론토 대학교(University of Toronto)로 옮겨서 연구원 생활을 했다. 초기에 그의 성과는 매우 실험적인 것처럼 보였지만 2012년부터 동료들과 '딥 러닝 알고리즘'의 놀라운 기능을 보여주는 논문을 공동 집필하면서 주목을 받기 시작했다.

당시 그의 논문은 딥 러닝을 사용해 이전에는 상상할 수 없었던 수준으로 패턴 인식 문제를 해결할 수 있음을 증명했다. 이 때부터 딥 러닝의 새로운 용도를 찾기 위한 경쟁이 시작됐고 구글은 논문을 집필한 3명의 대학원생을 모두 스카우트했다.

수츠케버의 도약은 구글에서 텐서플로우(TensorFlow)라는 회사의 첨단 AI 시스템을 작업하면서 이뤄졌다. 2016년까지 그는 수석 개발자로 일하면서 두 가지 아이디어에 집중했다. 첫째는 AI 시스템이 인공 일반 지능(AGI)이라고도 알려진 인간 수준의 사고를 달성할 수 있다는 아이디어다. 둘째는 이러한 시스템이 인간의 가치와 일치되지 않으면 위험할 것이라는 생각이다. AI를 사랑하면서도 그를 안전하게 쓰지 않으면 안된다는 인식이 당시부터 그의 평생 연구주제가 된 것이다.


AI를 연구하는 워싱턴 대학교 명예교수 오렌 에치오니(Oren Etzioni)는 "수트케버는 믿을 수 없을 정도로 똑똑하지만 그의 가장 큰 명성은 오픈AI에서 꽃을 피웠다"며 "바라건대 그가 망하지 않았으면 좋겠다"고 말했다.

오픈AI의 전현직 임직원들은 수츠케버가 거의 종교적인 열정으로 AI의 문제에 접근하고 있다고 설명했다. 그는 지난해 말 전체회의에서 "눈을 떴을 때, 잠들 때 AGI(인공일반지능)가 느껴지지 않는다면 이 회사에 있으면 안 된다"고 말했다. 하지만 수츠케버는 직원들에게 결국 AGI 시스템은 인간을 우리가 지금 동물을 대하는 것처럼 무감각하게 대할 수 있다고 우려하기도 했다.



텍사스대 컴퓨터과학자이자 오픈AI 멤버인 스콧 애런슨은 "안전성 개발의 진전상황을 보고하자 그는 우리가 정말로 알고 싶은 것은 AI가 인류를 사랑한다는 것이 무엇을 의미하는지 어떻게 공식화하느냐는 것이라고 대답했다"고 증언했다. AI가 안전하지 않다면 더는 개발을 담보할 수 없다는 의미로도 읽힌다.

실제로 수츠케버는 최근 AI 안전에 점점 더 관심을 갖게 됐다. 오픈AI 내에서도 그는 회사의 컴퓨팅 성능의 20%를 사용해 구축된 안전팀을 이끌었다. AI 시스템이 인간에게 해를 끼치지 않도록 하기 위해 구성된 팀으로 수퍼얼라인먼트(Superalignment)라고 불렸다.

알트만이 축출된 정확한 이유는 불분명하지만 이사회의 생각을 잘 아는 소식통에 따르면 수츠케버와 알트만이 안전 문제로 충돌했다고 전해진다. 하지만 수츠케버는 오픈AI 임직원들에 지난 19일 일요일 밤 보낸 메모에서는 그것이 해고 이유는 아니라고 언급했다. 이사회는 "알트만의 행동과 이사회와의 상호작용에 대한 투명성 부족으로 인해 회사를 효과적으로 감독하는 이사회의 능력이 약화됐다"고만 발표했다.



그러나 수츠케버와 다른 이사회 멤버가 올트먼의 후임으로 선택한 사람인 에밋 쉬어는 지난 9월 안전상의 이유로 AI 개발 속도를 늦추는 데 찬성한다고 말했다. 쉬어는 "지금 우리가 10의 속도에 있다면 일시 정지는 0이고, 대신 1-2를 목표로 해야 한다"고 소셜미디어에 썼다.

수츠케버는 스스로의 행동을 철회하는 X 메시지를 지난 20일 오전에 썼다. 그는 "오픈AI를 해칠 의도가 전혀 없었다"며 "우리가 함께 이룬 모든 것을 사랑하며 회사를 재결합하기 위해 최선을 다할 것"이라고 했다. 수츠케버의 발언에 올트먼은 곧바로 3개의 빨간색 하트로 응답했다. 두 창업동지의 견해차와 다툼이 전세계 AI 시장의 격변을 몰고온 셈이다.
TOP