[투데이 窓]생성형AI 규제의 방향

머니투데이 전성민 가천대 경영학부 교수 2023.10.24 02:03
글자크기
전성민 가천대 경영학부 교수·전성민 가천대 경영학부 교수·


지난해 말 챗GPT가 대중화하면서 생성형 AI(인공지능)에 대한 관심이 높아졌다. 사람이 쓴 것 같은 글, 실제 그린 것 같은 이미지, 심지어 음악까지 생성하는 능력을 보여줬기 때문이다. 하지만 생성형 AI는 잘못된 정보를 생성하거나 스팸 및 사기도구로 악용될 수 있는 위험성도 있다. 과연 AI는 어떻게 규제해야 할까.

생성형 AI는 지도학습, 비지도학습, 강화학습 기술을 모두 사용해 새로운 데이터를 생성한다. 지도학습은 생성형 AI에 대한 정답을 제공해 학습시키는 데 사용되고 비지도학습은 생성형 AI가 스스로 패턴을 학습해 개선하는 데 사용되고 강화학습은 생성형 AI가 생성한 데이터가 얼마나 현실적인지 평가해 제어하는 데 사용된다. 생성형 AI는 기존 AI기술을 활용해 AI분야에서 규모는 작지만 가장 빠르게 성장할 것으로 예측된다.



생성형 AI는 사회와 경제 전반에 큰 영향을 미칠 것으로 예상된다. 예를 들어 생성형 AI를 사용해 새로운 제품을 디자인하고 새로운 서비스와 경험을 제공할 수 있다. 이러한 잠재력을 최대한 활용하기 위해서는 데이터 소유권, 개인정보 등 윤리적 문제들이 해결돼야 한다.

유럽연합(EU)을 중심으로 AI를 규제하려는 다양한 움직임이 진행 중이다. 유럽평의회(The Council of Europe)는 46개 회원국을 둔 인권기구로 법적 구속력이 있는 AI 조약을 추진한다. 이 조약의 서명국은 AI가 인권, 민주주의, 법치를 보호하는 방식으로 설계, 개발, 적용되도록 조치를 취해야 한다. 본 조약에는 안면인식과 같이 인권에 위험을 초래할 수 있는 기술에 대한 모라토리엄을 포함할 가능성이 있다. 다만 국제조약이 성사되려면 각 국가가 개별적으로 조약을 비준한 후 국내 입법과정을 거쳐야 하므로 수년이 소요될 수 있다.



또한 EU는 인공지능법(AI Act)을 채택하고 AI 시스템의 '가장 위험한' 사용방식을 규제하려 한다. 특히 의료 및 교육과 같은 분야에서 AI 사용을 규제하고자 한다. 비EU 국가에 소속된 기업이 EU라는 거대한 무역권에서 사업을 하려면 이 법안을 준수하기 위해 관행을 조정해야 하므로 EU의 AI법안이 전 세계의 실질적 AI 규제안이 될 가능성이 높다.

우리나라에서도 생성형 AI 활용을 위한 데이터 사용에 대한 활발한 논의가 진행된다. AI산업의 발전을 위해서는 정보활용에 대한 투명한 지침과 동의 메커니즘을 설정할 필요가 있다. 또한 개인에 대한 위험을 최소화하면서 생성형 AI의 이점을 가능하게 하는 개인정보 보호기술을 개발하는데 최선을 다해야 한다. 대표적인 기술로는 차등프라이버시, 연합학습, 안전한 다자간 계산 등이 있다. 생성형 AI 학습 중 사용된 데이터를 익명화하기 위한 지속적인 연구와 개발 역시 필요하다. 또한 생성형 AI를 이용해 개인이 만든 출력물에 대해 어느 정도 제어할 수 있어야 한다. 예를 들어 특정 유형의 콘텐츠를 제외하거나 특정 주제 또는 민감한 정보가 생성되지 않도록 하는 옵션을 제공하는 것도 좋은 방법이다.

마지막으로 훈련 데이터의 소유권을 식별하고 보존할 수 있는 메커니즘을 구축하고 데이터 공급자에 데이터 수집 및 처리방법에 대한 접근 가능하고 자세한 정보를 제공하도록 투명성을 확보해야 한다. 대규모 AI 시대에 걸맞은 기술, 법률, 윤리 및 사회적 고려사항을 결합하는 다차원적 접근방식이 필요한 것이다.


AI 규제는 AI기술의 부작용을 방지하고 산업의 신뢰도를 높여 투자를 유치해 시장을 창출하는 점에서 의의가 크다. 그러나 지나친 AI 규제는 기술발전과 사업모델의 출현 및 진화에 부정적인 영향을 미칠 수 있다. 따라서 해외 사례를 무작정 따라하기보다 산업 특성과 영향 등을 고려한 규제정책이 필요하다
TOP