[딥러닝②] 상상 속 기계가 스스로 학습 기계로

머니투데이 테크엠 편집부 2015.03.09 06:00
글자크기

인공지능과 딥러닝의 역사

[딥러닝②] 상상 속 기계가 스스로 학습 기계로


인공지능의 태동-컴퓨터의 탄생
1936년 영국의 수학자 튜링은 ‘a-머신’ 이라는 연구 결과물을 내놓는다. 어떤 가상의 기계가 스스로 저장 공간의 기호들을 읽어 처리하고 그 상태에 따라 다른 상태로 전이가 가능하도록 한다면, 어떠한 연산이든 스스로(automatic-a machine 의 ‘a’) 처리할 수 있음을 이론적으로 증명한 것이다. 이 혁명적인 가상의 기계는 ‘튜링 머신’으로 불리게 된다.

튜링은 컴퓨터의 기본 원리를 제시한 튜링머신을 발표한 후 미국으로 건너가 박사과정을 마쳤는데, 당시 지도교수가 현대 컴퓨터의 기본 아키텍처를 만든 폰 노이만이다. 폰 노이만은 ‘폰 노이만 구조(프로그램 저장방식)’라는 현대 컴퓨터의 기본구조를 제시했고 이는 EDSAC이라는 최초의 컴퓨터들 중 하나로 구현된다. 인류 역사상 처음으로 최초의 정보처리 기계가 탄생한 것이다.



1950년대의 지식인들에게 있어 ‘사람의 머리로 하는 일을 대신 할 수 있는 자동기계’는 완전히 새로운 개념이었을 것이다. 그리고 이러한 새로운 경험은 사람의 머리와 마음에서 일어나는 일들을 진지하게 고찰하는 계기가 됐다. 즉, 사람의 머리에서 일어나는 일들도 수학, 물리, 화학처럼 ‘기계적 계산 과정’을 통해 설명할 수 있을 것이라는 생각이 시작됐고 결국 ‘마음은 정보처리과정의 산물’이라는 사고의 전환을 불러왔다. 이것이 곧 인지과학(Cognitive Science) 그리고 인공지능(Artificial Intelligence, AI)의 시작이다.

규칙기반 인공지능
인공지능은 사람의 ‘지능’ 에 해당하는 모든 능력을 기계에 부여하는 시도를 말한다. 따라서 인간의 지능이 어떻게 구현되고 발현되는가에 대한 생각의 차이가 철학적, 기술적 차이를 만들어 낸다. 1950년대 연구자들은 지능을 기계적 계산과정으로 설명할 수 있다는 ‘계산주의’를 근간으로 연구를 진행했다. 계산을 수행하려면 계산 과정을 정의하는 기호(Symbol) 와 기호 간 연산에 대한 규칙(Rule)을 정의해야 하기 때문에 초창기 인공지능은 필연적으로 규칙 기반 인공지능(Rule Based AI)으로 발전한다. 기호주의, 계산주의, 심볼릭 AI 등은 같은 맥락에서 나온 개념이라고 할 수 있다.



규칙기반의 AI는 ‘실세계의 사물과 사상을 어떻게 기호화 할 것인가’에 대한 물음과 이렇게 표현된 ‘기호들과 규칙을 활용해 어떻게 지능적 추론을 할 수 있을 것인가’ 에 대한 물음에 답하려고 노력한다. 전자에 대한 대표적 답변들이 온톨로지 같은 지식 표현 체계들이고 후자에 대한 대표적인 답변이 1차 논리학(First-Order logic) 같은 추론 기법이라고 할 수 있다.

인간이 이해할 수 있는 형태의 표현 방식이라는 장점과 컴퓨터 프로그래밍과의 유사성 때문에 규칙기반 AI는 1950년대부터 1980년대까지 전성기를 맞는다. 하지만 사람의 지능을 모두 기계에 부여할 수 있을 것이라는 초기의 믿음과 달리, 1980년대에 이르러 규칙 기반 AI 는 쇠락의 길을 걷게 된다. 상용화 정도의 성능을 내지 못하고 범용성이 부족한 것이 원인이었지만 보다 근본적으로는 실세계의 형상을 모두 ‘기호화’ 할 수 있는가에 대해 의문이 제기됐고 이는 연결주의라는 사고의 흐름으로 발전하게 된다.

연결주의 인공지능
연결주의(Connectionism)는 기호화나 기호조작만으로는 지능을 충분히 설명할 수 없다고 본다. 연결주의자들은 사람의 지능이 두뇌(Brain)를 이루고 있는 신경들 사이의 연결에서부터 출발한다고 가정한다. 이에 따라 뇌 구조를 낮은 수준에서 모델링 한 후 외부의 자극(학습데이터)을 통해 인공두뇌의 구조와 가중치 값을 변형시키는 방식으로 학습을 시도한다.


기호주의와 연결주의 인공지능의 결정적 차이는 사물의 표현방식에 있다. ‘고양이’를 기술할 때 기호주의 방식은 고양이를 기호사전 중 하나로 매핑해 생각한다. 다룰 수 있는 기호의 수가 모두 10개이고 ‘고양이’가 5번 항목에 기술돼 있다면, 고양이는 [0,0,0,0,1,0,0,0,0,0]으로 표현하는 것이다. 이를 ‘원 핫 레프레젠테이션(One-Hot Representation)’이라고 부른다.

연결주의에서는 고양이라는 개체는 ‘고양이’ 기호 하나로 따로 떼서 생각할 수 없고 다른 모든 정보와 연결돼 있다. 즉, 고양이를 떠올렸을 때 사람의 머릿속에서는 오늘 아침에 본 고양이, 내가 키우던 고양이, 페르시안 고양이 등 고양이와 연관된 모든 정보가 활성화 된다는 것이다. 이 활성화 되는 정도를 ‘실수 행렬 형태(Real value vector form)’로 표현한다. 예를 들어, 5차원의 행렬로 사물을 표현하자고 했을 때 고양이는 [34.2, 93.2, 45.2, 46.1, 4.2]과 같은 형태로 표현될 수 있을 것이고 이러한 표현 방식을 ‘분산 표상(Distributed Representation)’이라고 한다.

연결주의에 기반해 신경망 자체를 모델링하고 이를 통해 인공지능을 구현하려고 하는 시도를 ‘신경망 기반 AI’ 라고 부른다. 1957년 퍼셉트론(Perceptron)이 최초로 개발된 후 이를 보다 범용의 문제에 적용 가능한 형태로 개량한 다층 퍼셉트론으로 발전했다. 1980년대부터 신경망 기반의 연구와 상용화가 꾸준히 시도되고 일부 영역에서는 성공을 거뒀지만, 1990년대 후반에 이르러서는 이 역시 점차 사양의 길을 걷게 됐다.

신경망 기반 AI가 실패한 것은 계산이 복잡하고 데이터가 부족했기 때문이다. 이론적으로는 신경망의 깊이가 깊어질수록, 차원 수가 높을수록 성능이 올라간다는 것이 증명 됐지만, 당시의 컴퓨팅 파워는 복잡한 구조의 신경망을 충분히 학습시킬 만한 수준이 되지 못했다. 또 상용가능 수준으로 학습시킬 데이터도 절대적으로 부족했다. 이러한 실패 경험을 통해 복잡한 방식으로 사람의 지능을 낮은 수준에서 모사하는 것 보다, 실제세계의 지능이 필요한 문제 자체를 잘 해결하는 것이 더 중요하고 실용적이라는 생각이 확산되기 시작했다.

통계 기반의 인공지능
통계 기반 인공지능*은 인간의 지능과 두뇌구조에 대한 고찰보다 인공지능이 풀려고 하는 ‘문제자체’를 통계적으로 어떻게 풀어내는가에 더 관심을 가진다. 예를 들어 ‘오늘 주식을 팔아야 하나 말아야 하나?’ 라는 문제에 대해서 통계 기반 인공지능은 과거의 모든 주식 데이터들을 수치화해 통계적으로 주식의 흐름을 파악하고, 팔면 얼마의 이득과 손해가 될지를 결정하는 수학 문제로 바꿔 해결한다.

일반적으로 순수 통계 기반의 인공지능은 실제 사물을 표현하는 자질의 설계(Feature Design), 통계적 모델에 기반해 문제를 푼 후 정답과 비교해보는 평가 과정(Evaluation), 정답과의 차이를 반영해 통계 모델을 계속 갱신해 나가는 최적화 과정(Optimization/Parameter Update)의 세 가지로 구성된다. 문제 영역과 데이터 양상을 이 세 가지 구성요소와 어떻게 조합하느냐에 따라 성능이 결정되며, 2000년대 초반부터 현재까지 음성인식, 영상처리, 자연어처리 등 인공지능의 전 분야에 걸쳐 최적의 자질과 통계모델의 조합들이 발견되거나 개발돼 왔다. 또 대부분의 분야에서 상용화 수준에 근접하는 결과물을 얻을 수 있었다.

하지만 통계 기반 인공지능은 몇 가지 측면에서 한계점을 가진다. 자질 설계를 직접 사람이 해야 하기 때문에 자질 설계의 능숙도에 따라 전체적 성능이 크게 좌우된다. 또 최적화 방식으로 문제를 해결하기 때문에 문제 자체는 잘 풀지 몰라도 풀어내는 과정에서 생기는 결과물을 다른 분야에 가져가 활용하기 어렵다. 예를 들어 숫자 9와 6을 인식할 때 통계적 인공지능에서는 전혀 다른 사물로 학습을 한다. 그러나 숫자 9와 6은 위, 아래만 바뀌었을 뿐 형상 자체는 같기 때문에, 9를 잘 인식할 수 있는 인공지능이라면 6도 잘 인식하는 것이 보다 사람의 지능에 가깝다고 할 수 있다.

현대 컴퓨터의 기본구조를 제시한 폰 노이만현대 컴퓨터의 기본구조를 제시한 폰 노이만
신경망 기반 AI 의 부활-딥러닝
딥러닝(Deep Learning)은 신경망 기반 AI 의 부활이라고 할 수 있다. 신경망 기반 AI 가 통계 기반 인공지능에 권좌를 내주었던 2000년대 초반부터 지금까지, 현대 사회는 ‘인터넷’ 과 ‘모바일의 시대’ 로 변화했다. 인터넷의 공공재화 그리고 모바일을 통한 연결의 증가는 곧 데이터의 폭발적 증가로 이어져 현대사회는 빅데이터 시대를 맞게 됐다.

충분한 양의 데이터와 이를 처리할 컴퓨팅 파워의 확보, 그리고 신경망에 대한 이해와 기술발달은 이론적으로는 훌륭했지만 시대를 앞서 나갔던 신경망 AI 의 부활을 야기했고 과거 머신러닝 방법론이 줄 수 없는 특별한 장점들을 제공했다. 우선 사람이 자질을 직접 디자인 하지 않아도 데이터만 충분하다면 스스로 발견해 낼 수 있게 됐다. 예를 들어 사람을 인식한다면 딥러닝 방식은 사람이 미처 생각지 못하는 사람을 표현하는 자질들을 스스로 학습한다. 숫자 9와 6의 예처럼 9를 이용해 잘 학습된 숫자 인식 모델은 소량의 추가 학습을 통해 숫자 6 역시 잘 인식하게 만들 수 있다.

두 번째로는 사물을 분산표상 방식으로 학습해 표현함으로써 사물의 유사도 정보를 표현 체계 안에 포함(Embedding)시킬 수 있게 됐다. 이는 수학적 방식으로 사물의 유사도를 계산할 수 있게 됨을 의미한다.

예를 들어 원 핫 레프레젠테이션을 취하던 기존의 머신러닝 방법에서는 사과[0,0,1], 배[0,1,0], 공[1,0,0] 사이의 유사도가 모두 같지만 딥러닝 방법에서는 사과와 배의 거리가 사과와 공보다 가깝게 표현될 수 있다. 딥러닝은 어느 한 문제를 잘 풀면 이 과정에서 학습한 데이터를 다른 문제에 그대로 재활용할 수 있다. 예를 들어 자연어 처리에서 형태소 분석 훈련을 통해 학습한 중간단계의 결과물들은 그대로 구문분석이나 번역 문제에 재활용하거나 직접 연결해서 사용할 수 있다.

딥러닝은 또 우리 주변에서 쉽게 구할 수 있는 데이터들을 모두 활용할 수 있다는 장점이 있다. 딥러닝은 교사 데이터를 활용하기 전에 주변에 있는 데이터들을 활용해 선학습(Pre-Training)을 수행한 후, 마지막으로 교사데이터를 활용해 최종 성능을 올리는 방식을 취한다. 적은 비용으로 구할 수 있는 일반 데이터들을 활용해 성능을 향상시킬 수 있는 토대를 제공하는 것이다.

딥러닝-위기와 기회의 기술
과거의 인공지능 방식은 교사데이터를 많이 가지고 있는 특정 업체들이 주도할 수 있는 기술이었다. 이로 인해 국내 업체들이 언어적 장벽을 활용해 경쟁력 있는 인공지능 기술을 확보할 수 있었고, 서비스 우위를 가질 수 있었다. 그러나 딥러닝 시대에는 교사데이터만큼 일반 데이터의 양이 중요하다. 구글이나 마이크로소프트 같이 압도적인 데이터 양과 컴퓨팅 파워를 가진 업체들이 딥러닝 기술을 활용할 때 국내 업체들이 어떻게 경쟁력 우위를 확보할 수 있을지 고민해야 할 것이다.

딥러닝 기술은 신경망을 어떻게 디자인하고 어떤 종류의 신경망과 연결하느냐에 따라 과거 상상할 수 없었던 서비스를 개발해 낼 수 있는 기회를 제공한다.

기술 자체가 여러 연구자들에 의해 오픈소스 형태로 배포되고 있고 데이터 역시 인터넷을 활용한다면 쉽게 모을 수 있기 때문에 아이디어와 창의력만 있다면 얼마든지 ‘지능’을 만들어 볼 수 있는 시대가 됐다. 딥러닝 기술을 활용한 다양하고 참신한 지능 개발과 서비스 발굴을 기대해 본다.

*본 기고문에서는 인공지능을 구현할 때 인간의 지능에 대해 고민하지 않고, 순수하게 통계적 방식으로 문제를 풀려고 하는 ‘순수통계 기반 AI’를 ‘통계 기반 AI’라고 했다. 신경망 AI 도 내부적으로 통계적 기법을 다방면에서 활용할 수 있다.

글 정상근 SK텔레콤 미래기술원 연구원
TOP