e gpt
체크포인트가 발견한 첫 번째 사례는 챗GPT를 이용해 다른 사용자 모바일 기기에 저장된 PDF 파일을 탈취하거나 C++ 프로그램 언어를 기반으로 파일 전송 시스템을 장악해 원격 서버로 빼돌릴 수 있는 악성코드를 만든 것이다. 체크포인트는 이 사례가 기술적으로 능력이 떨어지는 사이버 범죄자들이 악의적인 목적으로 챗GPT를 활용한 실제 사례라고 판단했다.
세 번째로는 챗GPT로 다크웹 마켓플레이스를 만들어 불법거래에 사용한 것이다. 해당 마켓플레이스는 도난 계좌·카드, 악성코드, 마약 및 탄약 같은 불법 장물의 거래장소로 쓰인다. 개설자는 엄호화폐로 결제하도록 유도했다.
챗GPT를 만든 오픈AI도 이런 악용의 가능성은 인식했다. 샘 알트만 오픈AI CEO(최고경영책임자)는 지난 18일 ABC뉴스 인터뷰에서 "챗GPT를 세상에 내놓는 것이 개인적으로 조금 무섭다"면서 "챗GPT가 불법적인 일에 이용될 수 있고 사이버 공격에 이용될 수 있어 걱정한다"고 말했다.
그는 "위험도가 상대적으로 낮을 때 가능한 많은 것을 배워야 한다"며 "오픈AI 내 정책팀과 안전팀이 있지만 생성형 AI를 우리만 만드는 게 아니니 세계 주요 정부와 신뢰할 수 있는 국제기구 대표자들이 모여서 생성형 AI에 대한 규제 가이드라인을 만들어야 한다. 이 가이드라인은 개발자에게도 적용할 수 있어야 한다"고 강조했다.
한 보안 전문가는 "이미 국내에서도 챗GPT를 이용해 악성코드를 만드는 등 모의 테스트를 해봤는데 답변이 정확하지 않은 부분들이 있었다"며 "대놓고 악성코드를 만들어 달라고 하면 질문이 차단됐지만, 우회적으로 요구했을 땐 부정확하지만 그런 식으로 쓰일 수 있는 코드를 내놨다"고 말했다.
이어 "아직 크게 우려할 단계는 아니나 앞으로 충분히 악용의 소지가 높은 편이라고 보는 게 맞다"며 "전문가들 사이에선 우려의 목소리가 조금씩 나오는 것으로 안다. 챗GPT를 만든 오픈AI에서도 두렵다고 하는 만큼 앞으로 기술이 발전함에 따라 현실적인 위험이 될 수 있을 것"이라고 덧붙였다.