챗GPT 전쟁에 메타도 참전…더 가벼운 AI 언어모델 '라마' 발표

머니투데이 배한님 기자 | 2023.02.26 11:29

공개된 데이터로만 훈련…깃허브에 소스코드 공개
다른 언어 모델 용량 10분의 1 수준…서비스 접목 용이
벤치마크 테스트에서 GPT-3·친칠라보다 성능↑

/사진=마크 저커버그 페이스북 갈무리.

페이스북 운영사인 메타가 새 AI(인공지능) 대형언어모델(LLM)을 공개하며 챗GPT가 불붙인 생성AI 경쟁에 뛰어들었다.

26일 IT 업계에 따르면 메타는 지난 24일(현지 시각) 자사 AI 블로그에 새 초거대 언어모델 '라마(LLaMA)'를 공개했다. 메타는 라마의 소스코드를 깃허브에 업데이트했다. 메타는 "AI 연구자들이 이같은 LLM을 연구할 수 있게 해 빠르게 변화하는 AI 분야 민주화에 기여할 것"이라며 라마 공개 이유를 설명했다. 마크 저커버그 메타 최고경영자(CEO)도 이날 자신의 페이스북에 "라마는 AI 연구자들의 업무 진출을 돕기 위해 설계됐다"고 밝혔다.

라마는 다른 LLM보다 용량이 작아 여러 서비스에 효율적으로 적용할 수 있다. 라마는 70억개·130억개·330억개·650억개로 총 4가지로 파라미터(매개변수) 규모를 나눠 사용할 수 있다. 가장 큰 650억 파라미터도 오픈AI의 GPT-3.0(1750억개)이나 구글 딥마인드의 친칠라(700억개)보다 작다. 1750억개 파라미터를 가진 자사 LLM 'OPT'보다도 훨씬 작다. GPU 등 컴퓨팅 파워를 적게 사용할 수 있어 운영 측면에서 훨씬 효율적이다.

라마와 다른 LLM 성능을 비교한 벤치마크 테스트 결과. /자료=메타

크기는 작지만, 성능은 떨어지지 않는다. 메타가 이날 공개한 논문에 따르면 라마는 여러가지 벤치마크 테스트에서 GPT-3.0와 친칠라의 성능을 뛰어넘었다. 하정우 네이버 인공지능연구소장은 "딥마인드 친칠라와 유사하게 모델 크기는 컴팩트하게, 그러나 데이터는 많이 학습시켰다"며 "여러가지 테스트에서 기존 GPT-3.0, PaLM, 친칠라 등에 비해 경쟁력 있는 성능을 보인다"고 설명했다.


연구자들은 라마를 활용해 다양한 서비스를 출시할 전망이다. GPT-3.5를 기반으로 한 챗GPT는 막대한 GPU를 소모해 하루 최소 10만 달러의 운영 비용이 드는 것으로 알려졌다. 이에 반해 라마는 용량이 월등히 작아 경제적이다. 메타는 신청자에 한해 라마 모델을 공유할 계획이다. 신청자는 연구 등 비상업 용도로만 라마를 활용할 수 있다.

단, 할루시네이션(환각)은 아직 해결해야 할 부분이다. 메타는 "다른 LLM과 마찬가지로 라마도 편견·환각 등 위험을 해결하기 위해 더 많은 연구가 필요하다"며 "라마용 코드를 공유함으로써 다른 연구자들이 더 큰 LLM에서 이러한 문제를 제거하기 위한 새로운 접근 방식을 더 쉽게 테스트할 수 있을 것"이라고 했다.

베스트 클릭

  1. 1 의정부 하수관서 발견된 '알몸 시신'…응급실서 실종된 남성이었다
  2. 2 "건드리면 고소"…잡동사니로 주차 자리맡은 얌체 입주민
  3. 3 "나이키·아디다스 말고…" 펀러닝족 늘자 매출 대박 난 브랜드
  4. 4 [단독]음주운전 걸린 평검사, 2주 뒤 또 적발…총장 "금주령" 칼 뺐다
  5. 5 "갑자기 분담금 9억 내라고?"…부산도 재개발 역대급 공사비