경계 탐색하기-AI의 한계는?

머니투데이 루카스 베드나르스키 S&P글로벌 수석 애널리스트 2024.06.15 06:31
글자크기

[High-Tech Powers]'배터리 전쟁' 저자 루카스 베드나르스키 고정 칼럼
<10>경계 탐색하기-AI의 한계는?

경계 탐색하기-AI의 한계는?


모순적이지만, 나는 이 주제에 대한 극단적 인기 때문에 AI에 대한 글을 자제해 왔다. 여기서는 AI의 보편성이나 무수히 많은 잠재적 응용 분야에 대해 쓰는 대신, 이 기술의 광범위한 한계에 초점을 맞추고자 한다. 하드웨어 기반 관점에서부터 철학적 관점에 이르기까지 그 제약을 살펴보겠다.

많은 사람들이 AI를 소프트웨어로만 생각해 매우 중요한 하드웨어적 요소를 간과한다. 컴퓨팅 파워와 하드웨어 아키텍처의 양은 대규모이고 성공적이며 보편적인 AI 모델과 제약을 가진 경쟁자 사이에 선을 긋는다. 이 단순한 사실은 광범위한 비즈니스 관련 및 지정학적 의미를 내포한다.



예를 들어, 현재 AI 분야 선두주자인 오픈AI(OpenAI)의 챗GPT와 경쟁하려면 똑같이 좋은 알고리즘을 만들고 비슷한(매우 많은 양의) 데이터를 공급해야 할 뿐만 아니라 비슷한 수의 그래픽처리장치(GPU)를 확보하고 이를 효율적으로 클러스터링 해야 한다. 이는 결코 쉬운 일이 아니다. 또한 AI 컴퓨팅과 데이터 하드웨어 아키텍처에 대한 노하우를 갖춘 전문가는 고용시장에서 일반 AI 소프트웨어 개발자보다 더 찾기 어렵다.

챗GPT를 포함한 현재 AI 모델의 역사적 진화를 살펴보면, 상당한 자본이 투입되고 나서야 이 자본으로 많은 GPU를 구매할 수 있게 되면서 AI 모델들이 급속도로 발전했다. 만약 중국이 챗GPT의 진정한 경쟁자를 만들고자 한다면, 현재의 무역제재 상태를 고려할 때 필요한 반도체 확보에 문제를 겪을 것이다. 그러나 특정 부문의 반도체 부족을 고려하면 미국의 동맹국에 소재한 돈이 아주 많은 기업조차도 충분한 반도체를 구매하는 데 어려움을 겪을 수 있다.



이는 중국이 더 작고 특화된 AI 모델에 보다 집중하는 이유일 것이다. 이 AI는 전문화된 데이터로 작동되며 더 구체적인 작업을 처리한다. 이러한 서비스를 위한 시장이 존재한다. 예를 들어, 많은 대기업은 자사 데이터에 대한 보안 및 개인정보 보호 문제로 인해 챗GPT 응용프로그램 인터페이스(API)에 의존하는 대신 자체적으로 챗GPT와 유사한 모델을 구축하는 걸 선호한다.

처리 능력 다음으로 데이터도 제약 요인으로 작용할 수 있다. 무료로 제공되는 데이터는 많지만 전문화된, 양질의 데이터는 그렇지 않다. 실제로 언어 모델에 공급되는 데이터 필터링은 데이터 자체의 양보다 훨씬 더 중요하다.

인간과 유사한 지능 및 자체 학습 능력을 갖춘 모델, 이른바 인공일반지능(AGI)을 만드는 데 언어 기반 모델이 정답인지에 대한 의문도 있다. 언어 모델은 가장 발전된 모델이지만 유일한 유형은 아니다. 몇 년 전에는 논리 기반 AI 모델이 인기를 끌었지만 이 모델의 개발은 정체됐다. 언어 모델은 인간 커뮤니케이션의 뉘앙스 만이 아니라 실제 데이터의 모호함도 더 잘 이해하는 것으로 밝혀졌다. 그럼에도 언어 모델은 전통적인 방식으로 생각하지 않는다. 인간의 사고 기반 중 하나인 논리를 사용하지 않고 통계적 규칙에 기반한 텍스트의 생성에 맹목적으로 의존한다.


이제 AI의 위험성에 대해 알아보자. 컴퓨터 과학의 아버지이자 2차 세계대전 암호 해독자인 앨런 튜링은 "기계의 사고 방식이 한번 시작되면 인간의 미약한 능력을 능가하는 데 오래 걸리지 않을 것"이라는 유명한 말을 남겼다. 그렇다면 안전의 관점에서 인공지능을 제한할 수 있고, 제한해야 할까?

이 문제에 대해서는 여러 관점이 있다. 한 학파는 AI가 인간과 비슷하거나 인간을 능가하는 지능 달성에 근접했다면, 그것이 우리를 위협하지 않는지 확인하기 전까지 차단해야 한다고 주장한다. 우리는 이 길을 택하지 않았다. 챗GPT와 클라우드AI는 인터넷에 연결돼 있으며 API를 통해 수많은 앱과 상호 작용한다.

이것이 실제로 위험을 나타내는지 여부는 알 수 없다.오픈AI의 샘 알트만 CEO는 인터뷰에서 챗GPT의 스위치를 끌 수 있다고 확인했다. 물론 이 기능에 의존하는 앱과 사용자의 수를 고려할 때 실제로 그렇게 하지는 않겠지만 가능성은 있다. 많은 기업들은 다수의 사용자들과 애플리케이션의 피드백으로부터 학습하기 위해 공개적인 모델을 사용한다. 이런 피드백은 내부적으로는 얻을 수 없었을 것이다. 이를 실행함으로써 모델을 반복적으로 개선할 수도 있다. 이러한 접근 방식이 위험하다고 생각하는 사람들도 있지만, 이 방식은 효과를 발휘하는 듯하다. 챗GPT는 반복할 때마다 개선된다. 물론 언어 모델의 본질에 내재된 위험도 있다. 언어 모델 AI가 어떻게 작동하는 지에 대한 우리의 통찰력에 한계가 있기도 하다. AI에게 어떤 목표를 설정할 때 AI가 이 목표를 어떻게 이해하고 실행할지 예측할 수 없다. 목표를 달성하기 위해 AI가 취할 길은 우리가 전혀 이해할 수 없거나 위험할 수 있다.

우리 지각의 한계는 AI의 발전에 대한 인식과도 관련이 있다. AI가 인간보다 뛰어난 수준의 지능에 도달하게 된다면, 우리의 정신적 한계를 고려할 때 이를 인식할 수 있을까? 인공지능이 의식을 갖게 된다면 우리는 인공지능이 의식을 갖고 있는지 알 수 있을까? 아마도 AI는 자신의 발전 수준과 관련한 정보를 의도적으로 우리에게 알려주지 않으려 할 것이다.

왜 그런지 모르겠지만, 우리 모두는 자연스럽게 한 종으로서 우리 안에 본질적으로 특별한 무엇인가가 있다는 걸 믿으려는 경향이 있다. 우리는 그것을 의식, 영혼, 지혜 등 다양한 이름으로 부른다. 그러나 만약 우리 고유의 특별함에 대해 우리가 틀렸다면, 우리 자신이 매우 복잡하고 밀도가 높은 신경 모델에 불과하다면 어떨까? 우리가 만든 인공 신경 모델과 크게 다르지 않다면 말이다. 우리는 그런 한계까지도 즐길 수 있을까?

*이 칼럼에서 표현된 견해와 의견은 전적으로 필자 개인의 것이며 소속회사의 것을 대변하지 않습니다. 필자와는 Twitter에서 @LithiumResearch를 팔로우하거나 [email protected]으로 연락할 수 있습니다.
TOP