블룸버그는 1일(현지시간) 자체 입수한 사내 메모를 통해 삼성전자가 회사 소유의 컴퓨터, 태블릿, 휴대폰은 물론 내부 네트워크에서 생성형 AI 시스템 사용을 전면 금지하기로 했다고 전했다.
지난 3월 11일 디바이스솔루션(DS·반도체) 부문 사업장에 챗GPT 사용을 허용한 후 기업 정보가 최소 세 차례 유출된 데 따른 조치로 보인다. 정보 유출로 인해 삼성의 반도체 '설비 계측'과 '수율·불량' 등의 민감한 내용이 미국 기업인 오픈AI의 학습 데이터로 입력됐다.
보도에 따르면 삼성전자는 메모에서 엔지니어가 실수로 내부 소스코드를 챗GPT에 업로드해 유출하는 사고가 발생했음을 밝혔다. 삼성전자는 AI 플랫폼으로 전송된 데이터가 외부 서버에 저장돼 검색 및 삭제가 어렵고 다른 사용자에게 공개될 수 있다는 점을 우려하고 있다.
회사는 직원들에게 "챗GPT 같은 생성형 AI 플랫폼에 대한 관심이 대내외적으로 높아지고 있다"며 "이 같은 관심은 이러한 플랫폼의 유용성과 효율성에 초점을 맞추고 있지만 생성형 AI로 인한 보안 위험에 대한 우려도 커지고 있다"고 밝혔다. 또 "보안지침을 성실히 준수할 것을 요청하며, 이를 위반할 경우 회사 정보 유출 또는 유출로 인해 최대 해고를 포함한 징계 조치를 받을 수 있다"고 메모를 통해 밝혔다.
삼성전자는 자체 보안 조치가 마련될 때까지 생성형 AI 사용을 제한하겠단 방침이다. 문서 번역 및 요약과 소프트웨어 개발을 위한 자체 내부 AI 도구도 개발 중이다. 민감한 회사 정보가 외부 서비스에 업로드되는 것을 차단하는 방법도 연구 중이다. 이와 관련 회사 측은 해당 메모에서 "본사는 직원의 생산성과 효율성을 높이기 위해 생성형 AI를 안전하게 사용할 수 있는 보안 환경을 조성하기 위해 보안 조치를 검토하고 있다"고 알린 것으로 전해졌다.
다만 보도 내용에 대한 질문에 삼성 측은 답하지 않았다고 블룸버그는 덧붙였다.
한편, 삼성전자가 지난달 내부적으로 AI 도구 사용에 대한 설문조사를 실시한 결과 응답자의 65%가 보안 위험을 초래한다고 생각한다고 답했다. 삼성전자 등 기업의 정보유출 유려가 높아지자 지난달 챗GPT는 사용자가 자신의 채팅이 AI 모델 학습에 사용되는 것을 차단할 수 있는 '시크릿' 모드를 추가하기도 했다.
<저작권자 © ‘돈이 보이는 리얼타임 뉴스’ 머니투데이. 무단전재 및 재배포, AI학습 이용 금지>