RAG는 LLM이 답변을 생성하기 전에 사전 학습한 데이터 뿐 아니라 기업 내의 신뢰할 수 있는 주요 정보를 참조하도록 하는 프로세스다. 막대한 리소스가 소요되는 학습 과정을 거치지 않고도 LLM 서비스에서 치명적인 할루시네이션(환각)을 완화시키고 정확한 지식을 활용하도록 해 최근 생성형 AI 분야에서 가장 주목받는 기술이다.
이상구 인텔리시스 대표(서울대 컴퓨터공학부 교수)는 "RAG는 정보자원을 지식 단위로 분할하는 청킹, 각 청크(지식단위)를 벡터화하는 임베딩, 사용자 질문에 근거가 되는 청크를 찾아 내는 의미 검색, 이를 이용해 정확한 답변을 생성하게 하는 증강생성에 이르는 여러 단계의 파이프라인을 거친다"며 "각각 단계에서 어떤 기술적 전략을 선택하는지에 따라 답변의 정확도가 크게 차이가 난다"고 설명했다.
이 대표는 "현재는 RAG 파이프라인 각 단계에서 사람이 직접 전략을 설정하고 시행착오 과정을 거쳐 최적화 기술 전략을 찾아내는 데 수개월이 소요되고 있다"며 "RAG 구축이 LLM 서비스 개발에 병목이 되고 있는데 인텔리시스는 RAG 파이프라인 전체의 최적화 과정을 AI(인공지능)로 자동화해 사람 개입 없이 RAG를 구축할 수 있다"고 강조했다.
인텔리시스의 레그빌더는 AI가 기업의 지식 자원을 분석해 사용자의 예상 질문을 도출해 내고 예상 질문에 가장 최적인 RAG 파이프라인을 정의·실행해 기존 방식 대비 구축 시간이 300분의 1로 줄고 성능은 2.2배 높아졌다는 게 회사 측 설명이다.
이 대표는 "생성형 AI 시장의 패러다임이 파운데이션 모델 중심에서 혁신적인 서비스 개발로 전환되고 있다"며 "글로벌 시장에서의 RAG 기술은 이미 세분화되고 정교화되고 있는 반면 국내 시장에서는 단순한 검색 기술 정도로 받아들여지고 있다"고 했다.
또 "인텔리시스는 글로벌 최초로 RAG 구축을 자동화하는 레그빌더를 시작으로 높은 성능을 기반으로 한 혁신적인 LLM 서비스 빌더로 자리매김 하겠다"고 밝혔다.
<저작권자 © ‘돈이 보이는 리얼타임 뉴스’ 머니투데이. 무단전재 및 재배포, AI학습 이용 금지>