e gpt
보안 업체 체크포인트는 최근 '2023년 시큐리티 보고서'를 발표하면서 "챗GPT 등의 도구가 사이버 범죄자들에 의해 조작될 수 있다"며 "러시아 사이버 범죄자들이 오픈AI의 API 제한을 우회하고 악의적인 의도로 챗GPT에 접근한 사례 3건이 이미 입증되기도 했다"고 밝혔다.
두 번째 사례는 챗GPT를 이용해 암호화 도구를 만든 것이다. 이는 약간의 수정만 거치면 다른 사용자의 컴퓨터를 완전히 암호화해 무력화시키고 대가를 노리는 랜섬웨어로 바꿀 수 있다. 체크포인트는 이 암호화 도구를 만든 사람은 랜섬웨어 방식으로 다른 사용자의 데이터베이스를 훔쳐 판 일이 있다고 설명했다.
챗GPT를 만든 오픈AI도 이런 악용의 가능성은 인식했다. 샘 알트만 오픈AI CEO(최고경영책임자)는 지난 18일 ABC뉴스 인터뷰에서 "챗GPT를 세상에 내놓는 것이 개인적으로 조금 무섭다"면서 "챗GPT가 불법적인 일에 이용될 수 있고 사이버 공격에 이용될 수 있어 걱정한다"고 말했다.
그는 "위험도가 상대적으로 낮을 때 가능한 많은 것을 배워야 한다"며 "오픈AI 내 정책팀과 안전팀이 있지만 생성형 AI를 우리만 만드는 게 아니니 세계 주요 정부와 신뢰할 수 있는 국제기구 대표자들이 모여서 생성형 AI에 대한 규제 가이드라인을 만들어야 한다. 이 가이드라인은 개발자에게도 적용할 수 있어야 한다"고 강조했다.
이 시각 인기 뉴스
한 보안 전문가는 "이미 국내에서도 챗GPT를 이용해 악성코드를 만드는 등 모의 테스트를 해봤는데 답변이 정확하지 않은 부분들이 있었다"며 "대놓고 악성코드를 만들어 달라고 하면 질문이 차단됐지만, 우회적으로 요구했을 땐 부정확하지만 그런 식으로 쓰일 수 있는 코드를 내놨다"고 말했다.
이어 "아직 크게 우려할 단계는 아니나 앞으로 충분히 악용의 소지가 높은 편이라고 보는 게 맞다"며 "전문가들 사이에선 우려의 목소리가 조금씩 나오는 것으로 안다. 챗GPT를 만든 오픈AI에서도 두렵다고 하는 만큼 앞으로 기술이 발전함에 따라 현실적인 위험이 될 수 있을 것"이라고 덧붙였다.