"삼성전자, 직원들 챗GPT 사용 금지"…회사정보 유출 차단

머니투데이 김희정 기자 | 2023.05.02 11:46

블룸버그 보도…"내부 AI 도구도 개발 중"

경기 수원 영통구 삼성전자 본사의 모습 /사진=뉴스1
삼성전자가 보안 우려로 사내에서 챗GPT(ChatGPT)를 비롯한 생성형 AI(인공지능)의 사용을 금지했다고 블룸버그통신이 보도했다.

블룸버그는 1일(현지시간) 자체 입수한 사내 메모를 통해 삼성전자가 회사 소유의 컴퓨터, 태블릿, 휴대폰은 물론 내부 네트워크에서 생성형 AI 시스템 사용을 전면 금지하기로 했다고 전했다.

지난 3월 11일 디바이스솔루션(DS·반도체) 부문 사업장에 챗GPT 사용을 허용한 후 기업 정보가 최소 세 차례 유출된 데 따른 조치로 보인다. 정보 유출로 인해 삼성의 반도체 '설비 계측'과 '수율·불량' 등의 민감한 내용이 미국 기업인 오픈AI의 학습 데이터로 입력됐다.

보도에 따르면 삼성전자는 메모에서 엔지니어가 실수로 내부 소스코드를 챗GPT에 업로드해 유출하는 사고가 발생했음을 밝혔다. 삼성전자는 AI 플랫폼으로 전송된 데이터가 외부 서버에 저장돼 검색 및 삭제가 어렵고 다른 사용자에게 공개될 수 있다는 점을 우려하고 있다.

회사는 직원들에게 "챗GPT 같은 생성형 AI 플랫폼에 대한 관심이 대내외적으로 높아지고 있다"며 "이 같은 관심은 이러한 플랫폼의 유용성과 효율성에 초점을 맞추고 있지만 생성형 AI로 인한 보안 위험에 대한 우려도 커지고 있다"고 밝혔다. 또 "보안지침을 성실히 준수할 것을 요청하며, 이를 위반할 경우 회사 정보 유출 또는 유출로 인해 최대 해고를 포함한 징계 조치를 받을 수 있다"고 메모를 통해 밝혔다.


삼성전자는 자체 보안 조치가 마련될 때까지 생성형 AI 사용을 제한하겠단 방침이다. 문서 번역 및 요약과 소프트웨어 개발을 위한 자체 내부 AI 도구도 개발 중이다. 민감한 회사 정보가 외부 서비스에 업로드되는 것을 차단하는 방법도 연구 중이다. 이와 관련 회사 측은 해당 메모에서 "본사는 직원의 생산성과 효율성을 높이기 위해 생성형 AI를 안전하게 사용할 수 있는 보안 환경을 조성하기 위해 보안 조치를 검토하고 있다"고 알린 것으로 전해졌다.

다만 보도 내용에 대한 질문에 삼성 측은 답하지 않았다고 블룸버그는 덧붙였다.

한편, 삼성전자가 지난달 내부적으로 AI 도구 사용에 대한 설문조사를 실시한 결과 응답자의 65%가 보안 위험을 초래한다고 생각한다고 답했다. 삼성전자 등 기업의 정보유출 유려가 높아지자 지난달 챗GPT는 사용자가 자신의 채팅이 AI 모델 학습에 사용되는 것을 차단할 수 있는 '시크릿' 모드를 추가하기도 했다.

베스트 클릭

  1. 1 "개그맨들에게 폭력·따돌림 당해"…'뜬금 은퇴→해외행' 천수정 폭로
  2. 2 1000도 화산재 기둥 '펑'…"지옥 같았다" 단풍놀이 갔다 주검으로[뉴스속오늘]
  3. 3 [단독]유승준 '또' 한국행 거부 당했다…"대법서 두차례나 승소했는데"
  4. 4 "대한민국이 날 버렸어" 홍명보의 말…안정환 과거 '일침' 재조명
  5. 5 유명 사업가, 독주 먹여 성범죄→임신까지 했는데…드러난 '충격' 실체