아래는 남 대표의 '챗GPT 원리 이해하기' 강의를 요약·정리한 내용이다.
챗GPT는 LLM(거대언어모델)으로 만들었다고 하죠. 챗GPT는 GPT-3.5라고 하는 거대언어모델을 기반으로 만든 AI 채팅 서비스입니다. 이 말을 들었을 때 우선 '거대언어모델'이라는 단어부터가 매우 생소하죠.
거대언어모델에서 일단 '모델'이라는 단어부터 쉽게 이해하고 가죠. 여기서 말하는 모델은 우리가 중학교 때 배웠던 함수, 더 쉽게 말하면 수학식을 말합니다. 예를 들어 일기예보에 사용하는 '날씨 예측 모델'이 있다고 하면 이것 역시 날씨를 예측하는 함수가 있다고 볼 수 있습니다. 현재 기상상황, 온도, 습도, 위성 사진 등의 관측된 자료를 바탕으로 수학식을 거치면 미래의 날씨를 예측할 수 있는 거죠. 마찬가지로 거대언어모델을 다른 말로 하면 아주 복잡한 함수를 거쳐서 결괏값이 나오는 것이다라고 생각하면 됩니다.
![챗GPT 작동원리~ 1차함수만 알면 이해된다 [티타임즈]](https://thumb.mt.co.kr/06/2023/03/2023033111582836212_1.jpg/dims/optimize/)
저 화살표가 하는 역할을 단순화 해서 말씀드리면 그저 '곱하기'를 하는 것 뿐입니다. 예를 들어 그림에 보이시는 원에 5라는 숫자가 들어왔다고 해보죠. 그럼 초록 화살표에서 어떤 숫자를 곱해서 다음 원으로 넘깁니다. 다음 원에는 화살표가 노란 원과 그 아랫 원 두 군데서 들어오죠. 두 군데에서 들어온 값을 단순히 더하는게 다음 원에서 하는 일입니다. 그렇게 많은 파라미터와 노드를 거치고 나면 맨 오른쪽에 출력값이라고 하는 결과가 나오는 것이죠.
![챗GPT 작동원리~ 1차함수만 알면 이해된다 [티타임즈]](https://thumb.mt.co.kr/06/2023/03/2023033111582836212_2.jpg/dims/optimize/)
마지막으로 짚고 넘어갈 부분은 인공지능의 '학습'과 '예측'입니다. 우리가 사용하고 있는 챗GPT는 인터넷에 있는 수많은 문서들을 공부해 다음 말을 예측할 수 있게 된 모델입니다. '안녕하세요'라는 말이 나왔을 때 '예' 라고 대답할지 '안녕하세요'라고 대답할지, 그리고 그 다음 말은 무엇으로 이어나갈지를 예측하게 되는 거죠. 언어로 비유하자면 너무 어려우니 조금 전에 설명드렸던 체중과 성별 예측 모델의 예로 다시 설명드리겠습니다.
여기서 말하는 '학습'은 다음과 같습니다. 인공지능이 예를 들어 '김아무개' 라는 사람이 175cm에 23세일 때 65kg 체중에 남성이라는 데이터를 갖고 있다고 해봅시다. '박아무개'라는 사람은 163cm에 25세, 50kg 체중에 여성이라는 데이터도 있죠. 이렇게 기존에 갖고 있는 데이터들을 인공지능은 '정답'으로 간주하고 학습하기 시작하죠. 175cm라는 키와 23세 라는 나이를 알게 됐을 때, 65kg에 남성이라는 정답을 찾아나갈 수 있도록 중간의 수학식들을 조절하는 것입니다.
화살표(파라미터)에 어떤 숫자를 곱해서 다음 원으로 넘기는 작업을 했을 때 정답에 딱 맞는 a값, b값, c값, d값이 뭔지를 계속 수정해나가는 거죠. 많은 사람의 데이터를 학습할수록 더 정확한 답을 찾아나갈 수 있을 겁니다.
이렇게 학습을 다 하고 나면 인공지능이 생각하는 a값, b값, c값, d값 등이 정해지게 됩니다. 그래서 우리가 그 인공지능을 사용하게 되면 AI는 정답을 '예측'하게 되죠. 180cm에 33살이라고 입력하면, 75kg의 남성이다 라고 예측해주는 것이죠. 마치 사람이 어떤 이야기를 들었을 때 오랜 세월을 통해서 축적한 경험으로 다음 일을 예측하는 것처럼 거대언어모델은 1750억개의 '곱셈'과 '덧셈'을 이용해서 자신이 말해야 할 것, 그려야 할 그림 등을 학습하고 그 결과물을 보여주는 것입니다.
※ 남세동 보이저엑스 대표가 설명하는 초거대AI 원리를 더 쉽게 듣고 싶으시면 영상을 참고해 주세요. '티타임즈TV'에 오시면 더 많은 영상을 보실 수 있습니다