[기고] 'AI의 일상화' 위한 정보보호

머니투데이 윤두식 디지털플랫폼정부위원회 전문위원 2024.04.01 04:00
글자크기
윤두식 디지털플랫폼정부위원회 전문위원 윤두식 디지털플랫폼정부위원회 전문위원


2022년 챗GPT의 등장으로 AI(인공지능)의 일상화가 시작됐다. 우리의 생활과 산업현장 곳곳에서 막강한 영향력을 행사한다. 최근 경제협력개발기구(OECD)가 낸 자료에 따르면 근로자 5명 중 4명은 'AI가 업무성과를 향상했다'고 답했다.

공공부문에서도 민원, 재난안전, 취약계층 지원 등 사회문제 해결에 AI가 적극 활용된다. 실제 디지털플랫폼정부의 일환으로 민원상담 AI어시스턴트 서비스를 시행하니 민원인 대기시간이 14.5% 줄고 공무원의 업무효율은 10% 이상 높아지는 결과가 나왔다.



디지털플랫폼정부는 AI기술과 데이터를 기반으로 정부의 서비스를 간소화하는 게 목표다. 중요한 것은 그 과정에서 안전성이 보장돼야 한다는 점이다. 이를 위해 민간기업과 협력하고 정부데이터를 공개하는 데 있어 개인정보 오용이나 유출을 방지해야 하는 과제에 직면했다.

AI의 안전한 사용을 위해서는 AI에 대한 신뢰성 확보·보안관리 등이 필수다. 국제사회도 AI 개발·사용에 관한 규범채택을 위해 시급히 움직인다. G7(선진 7개국), OECD, 유네스코 등 다양한 국제기구에서 논의가 진행 중이다. 유엔총회는 지난 3월21일 AI의 안전한 사용에 관한 결의안을 표결 없는 만장일치로 채택했다.



국내에서도 안전하고 책임감 있는 AI개발에 초점을 맞춘 'AI산업 육성 및 신뢰기반 조성 등에 관한 법률'이 국회에서 논의 중이다. 과학기술정보통신부는 'AI시스템 신뢰성 제고를 위한 정보통신단체표준'을 제정했다. 국가정보원은 '챗GPT 등 생성형 AI 활용 보안 가이드라인'을 발표하는 등 AI 일상화에 대응하고 골든타임을 놓치지 않기 위한 정책마련에 분주하다.

업계의 경우 해외에서는 이미 20개 이상의 생성형 AI 보안스타트업이 존재하는 등 많은 투자가 이뤄진다. 반면 국내는 준비가 미진한 상황이다. 보안위협 탐지율을 보장할 목적으로 AI기술을 일부 사용하는 수준이다. 생성형 AI를 현업에 활용하고자 하는 조직은 적절한 보안기술이나 서비스가 제공되기 전까지 실사용을 머뭇거리고 신기술에 대한 보수적인 규제정책도 AI 도입 지연에 한몫한다. 공공기관의 경우 AI 보안 가이드라인을 지키지 못한다면 생성형 AI 활용은 매우 어렵다.

정보보호와 AI 활용을 모두 가능케 하는 방법은 AI를 실시간으로 모니터링하고 문제발생 시 실시간으로 조치하는 프로세스를 갖추는 것이다. 이것만으로도 사용자는 해당 조직이 보안에 대해 철저히 관리하고 있다는 생각을 갖게 된다. 조직적, 정책적 관리체계가 바탕이 된 후에야 AI를 적극적으로 활용할지 고민하게 될 것이다.


디지털플랫폼정부는 정보보호와 개인정보 보호의 중요성을 강조하고 기술을 활용해 거버넌스를 개선하는 방향으로 발전해야 한다. 정부와 산업계가 더 협력하고 혁신해야 하며 부처간 사일로는 더 타파돼야 한다. 동시에 보안이슈 불안감을 종식해야 한다. 지금이야말로 모두가 뭉쳐 AI의 잠재력을 책임감 있고 안전하게 활용할 수 있는 포괄적 전략을 확립할 때다.
TOP