21일 월스트리트저널(WSJ)은 오픈AI의 수석개발자이자 실리콘밸리에서 가장 저명한 인물인 수츠케버가 'AI의 위험성을 인지하고나서 개발 속도를 늦추기 위해 일을 벌였다'는 분석을 내놓았다. 그는 인류애의 근본에서 올트먼의 축출을 주도하면서 이사회 쿠데타를 벌였지만 다시 자신이 만든 오픈AI가 해체될 위기에 몰리자 결정을 후회하고 있다는 설명이다.
이 남자의 속내는 오락가락하는 듯 보이지만 한편에선 스스로도 주체할 수 없는 기술개발의 속도를 염려하면서 AI가 인류에 위협이 되는 수준으로 발전하는 것을 경계하는 마음이 읽힌다는 지적이 나온다는 것이다.
당시 그의 논문은 딥 러닝을 사용해 이전에는 상상할 수 없었던 수준으로 패턴 인식 문제를 해결할 수 있음을 증명했다. 이 때부터 딥 러닝의 새로운 용도를 찾기 위한 경쟁이 시작됐고 구글은 논문을 집필한 3명의 대학원생을 모두 스카우트했다.
수츠케버의 도약은 구글에서 텐서플로우(TensorFlow)라는 회사의 첨단 AI 시스템을 작업하면서 이뤄졌다. 2016년까지 그는 수석 개발자로 일하면서 두 가지 아이디어에 집중했다. 첫째는 AI 시스템이 인공 일반 지능(AGI)이라고도 알려진 인간 수준의 사고를 달성할 수 있다는 아이디어다. 둘째는 이러한 시스템이 인간의 가치와 일치되지 않으면 위험할 것이라는 생각이다. AI를 사랑하면서도 그를 안전하게 쓰지 않으면 안된다는 인식이 당시부터 그의 평생 연구주제가 된 것이다.
이 시각 인기 뉴스
AI를 연구하는 워싱턴 대학교 명예교수 오렌 에치오니(Oren Etzioni)는 "수트케버는 믿을 수 없을 정도로 똑똑하지만 그의 가장 큰 명성은 오픈AI에서 꽃을 피웠다"며 "바라건대 그가 망하지 않았으면 좋겠다"고 말했다.
오픈AI의 전현직 임직원들은 수츠케버가 거의 종교적인 열정으로 AI의 문제에 접근하고 있다고 설명했다. 그는 지난해 말 전체회의에서 "눈을 떴을 때, 잠들 때 AGI(인공일반지능)가 느껴지지 않는다면 이 회사에 있으면 안 된다"고 말했다. 하지만 수츠케버는 직원들에게 결국 AGI 시스템은 인간을 우리가 지금 동물을 대하는 것처럼 무감각하게 대할 수 있다고 우려하기도 했다.
텍사스대 컴퓨터과학자이자 오픈AI 멤버인 스콧 애런슨은 "안전성 개발의 진전상황을 보고하자 그는 우리가 정말로 알고 싶은 것은 AI가 인류를 사랑한다는 것이 무엇을 의미하는지 어떻게 공식화하느냐는 것이라고 대답했다"고 증언했다. AI가 안전하지 않다면 더는 개발을 담보할 수 없다는 의미로도 읽힌다.
실제로 수츠케버는 최근 AI 안전에 점점 더 관심을 갖게 됐다. 오픈AI 내에서도 그는 회사의 컴퓨팅 성능의 20%를 사용해 구축된 안전팀을 이끌었다. AI 시스템이 인간에게 해를 끼치지 않도록 하기 위해 구성된 팀으로 수퍼얼라인먼트(Superalignment)라고 불렸다.
알트만이 축출된 정확한 이유는 불분명하지만 이사회의 생각을 잘 아는 소식통에 따르면 수츠케버와 알트만이 안전 문제로 충돌했다고 전해진다. 하지만 수츠케버는 오픈AI 임직원들에 지난 19일 일요일 밤 보낸 메모에서는 그것이 해고 이유는 아니라고 언급했다. 이사회는 "알트만의 행동과 이사회와의 상호작용에 대한 투명성 부족으로 인해 회사를 효과적으로 감독하는 이사회의 능력이 약화됐다"고만 발표했다.
그러나 수츠케버와 다른 이사회 멤버가 올트먼의 후임으로 선택한 사람인 에밋 쉬어는 지난 9월 안전상의 이유로 AI 개발 속도를 늦추는 데 찬성한다고 말했다. 쉬어는 "지금 우리가 10의 속도에 있다면 일시 정지는 0이고, 대신 1-2를 목표로 해야 한다"고 소셜미디어에 썼다.
수츠케버는 스스로의 행동을 철회하는 X 메시지를 지난 20일 오전에 썼다. 그는 "오픈AI를 해칠 의도가 전혀 없었다"며 "우리가 함께 이룬 모든 것을 사랑하며 회사를 재결합하기 위해 최선을 다할 것"이라고 했다. 수츠케버의 발언에 올트먼은 곧바로 3개의 빨간색 하트로 응답했다. 두 창업동지의 견해차와 다툼이 전세계 AI 시장의 격변을 몰고온 셈이다.