[투데이 窓]AI인공지능이 비즈니스에서 실패하는 이유

머니투데이 전성민 가천대 경영학부 교수 · 서울대 AI연구원 객원연구원 2023.01.26 02:03
글자크기
전성민 가천대 교수전성민 가천대 교수


인공지능 챗봇서비스 챗(Chat)GPT가 인기를 끌면서 인공지능에 대한 관심이 높다. 2016년 구글의 알파고(AlphaGo)가 이세돌 9단과의 바둑 대결에서 승리한 때에 이슈가 된 것처럼 AI가 사람의 일자리를 빼앗고 직업이 없어질 것이란 우려가 또다시 고조된다. 챗GPT로 말미암아 구글도 위협받을 것이란 문제도 제기된다. 과연 AI가 비즈니스에 성공적으로 활용될 수 있을까.

영국 일간지 가디언은 "몇 년 후에는 교수, 프로그래머, 저널리스트 등이 일자리를 잃을지도 모른다"고 지적했다. 텔레그래프는 한발 더 나가 "챗GPT가 인간의 일을 인간보다 더 잘해낼 수 있다"고 평가했다. 실제로 대화하는 것처럼 질문하면 챗GPT가 문맥이 완성된 짜임새 있는 글을 써준다. 또한 대학교 리포트를 쓰고 논문까지 작성할 뿐만 아니라 프로그래밍도 하니 교육현장에 큰 변화가 올 것임은 자명하다. 이 칼럼을 쓰는 데도 챗GPT에 제목만 넣었더니 불과 몇 초 만에 맞춤법 하나 틀리지 않은 원고지 5장 분량의 글이 금세 만들어졌다.



하지만 챗GPT 같은 대규모 언어모델에는 중대한 결점이 있어 당장 일자리를 빼앗아 가기에는 갈 길이 멀다. AI는 단어를 정렬하고 이해하기 쉬운 문장을 쓰도록 프로그램돼 있을 뿐 내용의 진위판단을 하지 못해 틀린 내용조차 자신 있게 작성하게 된다. 지난해 메타AI가 발표한 '갤럭티카'(Galactica) 언어모델 역시 많은 관심을 끌었지만 공개 이틀 만에 중단해야만 했다. 갤럭티카는 4800만편 이상의 과학논문과 초록데이터로 훈련돼 어려운 과학문제에 대해서도 그럴듯한 답을 도출할 수 있었다. 그러나 정작 갤럭티카의 답변은 대부분 틀린 정보를 포함했고 참고문헌이 조작되기도 했다.

우선적으로 AI시스템이 비즈니스에 대해 학습하고 정확한 예측을 하기 위해서는 대량의 고품질 데이터가 필요하다. 그러나 많은 기업이 AI시스템에 필요한 데이터를 수집·관리하는데 어려움을 겪고 있다. 개인정보 및 보안문제로 기업이 데이터를 공유하기가 쉽지 않다. 또 AI는 전문지식과 기술이 필요한 복합적인 분야인데 인재확보가 어렵고 공정하고 편견 없이 AI를 훈련하고 모니터링하는 과정이 복잡하다. 그리고 AI를 통한 의사결정을 할 경우 '블랙박스'와 같이 의사결정과정의 맥락을 설명하기가 매우 어렵다.



예를 들어 자율주행 자동차의 사고문제는 매우 복잡하다. 아무리 인간 운전자보다 사고비율이 낮더라도 AI의 의사결정이 탑승자 및 자체 차량, 보행자, 생존확률, 전체적인 피해규모 중 어떤 측면을 우선적으로 고려해야 하는지 사회적 합의가 필요하다는 측면에서 복합적인 문제가 된다. 또 IBM 왓슨도 의료데이터를 바탕으로 진단이나 치료를 보조하지만 AI 의사의 역할과 범위, 사고발생 시 책임문제 등에 대해서는 명확한 윤리기준이 제시되지 않고 있다. AI를 활용한 신용평가 시스템의 경우에도 고객 신용점수 계산의 과정에 대한 설명이 어려운 한계가 있다.

그렇다면 AI를 비즈니스에 활용하려면 어떤 접근방법을 택해야 할까. 지금까지 AI기술은 종합적인 '넓은' 분야에서 활용하는 데는 여러 어려움이 있으나 '좁은' 영역에서는 인간보다 훨씬 우수한 성과를 내고 있다. 구체적으로 바둑판이라는 제한된 공간에서 승부를 겨루거나 생산공정에서 불량품을 찾아내거나, 또는 글 초안을 작성하거나 요약할 때, 아이디어로 디자인 초안을 그릴 때 AI는 매우 유용하다. 따라서 비즈니스에 필요한 복잡하고 어려운 개념에 '넓게' AI를 직접 적용하기 보다 구체적인 프로세스에서 '좁게' 활용할 필요가 있다.

즉, 회사 전체의 업무에 적용하기보다 개별 작업과 기술을 자동화해 작게 시작하는 것이 좋다. 간단한 시범적용 분야를 정해 개발, 테스트를 빠르게 반복하면서 AI를 적용하는 방안을 찾는 것이 적절하다. 비즈니스 프로세스 중 보틀넥이 되는 영역이나 고객, 직원에게 부담이 큰 영역에서 AI기술을 적용하는 것을 고려할 만하다.

TOP