'통제력 상실, 악용' 막는다…네이버, AI 안정성 실천체계 공개

머니투데이 변휘 기자 2024.06.17 09:56
글자크기
경기 성남시 분당구 네이버 사옥 모습. 2024.05.13. /사진제공=뉴시스경기 성남시 분당구 네이버 사옥 모습. 2024.05.13. /사진제공=뉴시스


네이버(NAVER (168,400원 ▲2,000 +1.20%))는 17일 자체 기술 채널인 '채널 테크'를 통해 '네이버 ASF(AI Safety Framework)'를 발표했다.

네이버 ASF는 AI(인공지능) 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계다. 네이버는 2021년 '네이버 AI 윤리 준칙', 2022년 'AI 윤리 자문 프로세스'에 ASF 마련으로 AI 안전성의 실천 체계를 한층 구체화했다.



네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 각각 '통제력 상실 위험'과 '악용 위험'으로 정의하고, 각각의 대응 방법을 설계했다. 먼저 인간이 AI 시스템에 영향을 미치지 못하게 되는 통제력 상실 위험의 완화를 위해 'AI 위험 평가 스케일'을 통해 AI 시스템의 위험을 주기적으로 평가·관리한다. 특히 현존 최고 성능의 AI 시스템을 '프런티어 AI'로 정의하고, 이 기술 수준의 AI 시스템에 대해서는 3개월마다 위험 평가를 수행한다. 또 시스템의 능력이 기존보다 6배 이상 급격히 증가한 경우에는 그 시점에 추가 평가가 이뤄진다.

악용 위험에는 AI 시스템의 사용 목적과 안전 조치 필요성 정도에 따라 각각 다른 방법을 적용하는 'AI 위험 평가 매트릭스'로 대응한다. 예컨대 생화학 물질 개발처럼 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공하고, 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템이라면 추가적인 기술적·정책적 안전 조치를 통해 위험이 완화될 때까지는 배포하지 않는다.



네이버 ASF(AI 세이프티 프레임워크) 개요/그래픽=김다나네이버 ASF(AI 세이프티 프레임워크) 개요/그래픽=김다나
송대섭 네이버 아젠다 리서치 리더는 "해외 빅테크들 역시 각자의 기준과 방식으로 AI 안전성 프레임워크를 설계하고 실천하고 있다"면서도 "AI 안전성에서도 각 지역의 사회 기술적 맥락을 고려하거나, '매트릭스' 형태의 위험 평가 구조를 채택한 것은 네이버 ASF만의 특징"이라고 소개했다.

이에 따라 네이버는 문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시켜나갈 계획이다. 한국 외 다른 지역의 정부 및 기업과 소버린(Sovereign) AI를 공동 개발하며 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 식별하고, 위험의 정도를 측정하는 벤치마크(benchmark)도 문화권의 특성을 반영해 고도화할 예정이다.

실제로 네이버는 한국어 기준으로 구축한 AI 안전성 강화 학습 데이터셋을 글로벌로 확장한 경험이 있다. 네이버는 지난해 자연어처리 학회 'ACL 2023'에서 종교·도덕 등 이슈에 대해 AI가 편향적으로 발화하는 문제를 완화하기 위한 새로운 대량의 한국어 데이터셋을 제안했다. 이 연구에서는 문화권에 따라 사회적으로 민감한 문제가 달라질 수 있다는 점을 고려해 같은 종류의 데이터셋을 다른 언어 기반으로도 구축할 수 있도록 데이터 설계 프로토콜을 함께 제안했고, 글로벌 AI 커뮤니티에 기여했다는 평가와 함께 학계의 주목을 받았다.


최수연 네이버 대표이사는 "네이버는 한국에서 '하이퍼클로바X'라는 소버린 AI를 개발한 경험을 통해, 문화적·지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다"며 "향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속해서 개선해나갈 계획"이라고 말했다.
TOP