오픈AI, AI 장기 위험 대응팀 해체…안전보다 속도에 집중?

머니투데이 윤세미 기자 2024.05.18 14:08
글자크기
샘 올트먼 오픈AI 최고경영자(CEO)/AFPBBNews=뉴스1샘 올트먼 오픈AI 최고경영자(CEO)/AFPBBNews=뉴스1


챗GPT를 만든 오픈AI가 초고도 인공지능(AI) 시스템의 안전을 보장하기 위해 만든 팀을 사실상 해체했다. 생성형 AI 서비스 속도전이 진행되면서 오픈AI 내에서 개발 속도와 안전성과의 균형이 흔들리고 있단 지적이 나온다.

블룸버그 등 외신은 사안에 정통한 소식통을 인용해 오픈AI가 미래의 AI가 제기할 수 있는 장기 위협에 대응하기 위해 만든 슈퍼얼라인먼트(superalignment) 팀을 사실상 해체했다고 17일(현지시간) 보도했다. 오픈 AI는 이와 관련 "독립 부서로 유지하는 대신, 안전 목표 달성을 돕는 연구 활동 전반에 걸쳐 깊숙하게 통합하고 있다"며 해체를 사실상 인정했다.



지난해 7월 설치된 슈퍼얼라인먼트 팀은 미래의 초지능 AI를 제어해 인간에게 유용하고 해롭지 않은 방식으로 작동하도록 연구하는 안전팀이다. 오픈AI는 당시 팀 신설을 발표하며 "인류보다 훨씬 스마트한 AI 시스템을 조종하고 통제하기 위한 과학적·기술적 진전"이라고 의미를 부여한 바 있다.

이번 소식은 오픈AI 공동 창립자인 일리야 수츠케버와 얀 레이케 등 안전팀 구성의 핵심 인사들이 퇴사한 지 사흘 만에 나왔다. 수츠케버는 지난해 11월 오픈AI를 뒤흔들었던 샘 올트먼 최고경영자(CEO)의 해임 사태 당시 올트먼과 갈등한 대표적 인물이다. 당시 올트먼의 해임은 인류에게 위협이 될 수 있는 AI의 성급한 개발을 막으려는 이사회가 AI 개발과 상업화를 가속하려는 올트먼에 브레이크를 걸기 위해 결정한 것으로 알려진 바 있다.



수츠케버 퇴사 및 안전팀 해체가 '내전'의 후폭풍이자 올트먼 권력 강화의 방증이란 관측이 제기되는 대목이다. 블룸버그는 "AI 제품 개발 시 속도와 안전성의 균형을 맞추는 오픈AI의 접근 방식에 의문이 제기된다"고 지적했다. 안정성보다 속도에 치중하는 신호일 수 있단 의미다.

레이케는 17일 오픈AI가 안전성을 경시하고 있다고 직격했다. 그는 엑스(옛 트위터)에 쓴 글에서 "오픈AI가 AI의 위험 대응 연구에서 세계 최고의 기관이라고 생각해 합류했지만 지금은 지도부의 생각에 동의하지 않는다"고 밝혔다. 그는 "오랫동안 회사의 핵심 우선순위를 두고 경영진과 이견이 있었다"며 "인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험하다. 수년간 오픈AI에서 안전 문화와 관련 절차는 눈부신 제품에 밀려 뒷전으로 밀려났다"고 비판했다.

올트먼 CEO는 레이케의 비판에 대해 "그의 말이 맞다"며 "우리는 더 많은 일을 해야 한다. 그러기 위해 우리는 최선을 다하고 있다"고 대응했다.


전문가들은 최근 생성형 AI 패권 전쟁이 본격화하면서 기업들의 조바심이 커지고 있다고 지적한다. 오픈AI는 13일 사람과 음성으로 대화하는 새로운 AI 모델 'GPT-4o'를 공개했고, 구글은 다음 날 자체 생성형 AI 제미나이의 한층 진화된 모습을 선보였다. 신흥 기업들도 속속 시장에 뛰어들고 있다. 인류에게 널리 이익이 되는 초고도 AI 개발을 위해 비영리단체로 출범한 오픈AI라고 해도 기술 투입에 시간을 갖고 여유 있게 생각할 수 있는 여지가 점점 줄어들고 있단 지적이다.

이 기사의 관련기사

TOP