조 바이든 미국 대통령/AFPBBNews=뉴스1
30일(현지시간) CNBC 등 외신에 따르면 이번 행정명령은 △AI용 안전 및 보안 기준 마련 △개인정보 보호 △형평성과 시민권 증진 △소비자 보호 △노동자 지원 △혁신과 경쟁 촉진 △국제 파트너와의 협력 △연방 정부의 사용과 조달을 위한 지침 개발 등 크게 8개 부분으로 나뉘었다.
구체적으론 주요 기술 기업들의 최대 고객이라는 미국 정부의 지위를 활용해 관련 당국이 AI 기술 공개 전 국가 혹은 경제적 안보에 위험이 되는지 심사하도록 했다. 이에 따라 기업들은 AI 시스템을 출시하기 전 상무부 산하 국립표준기술연구소(NIST)의 안전성 평가를 의무적으로 거쳐야 한다. 아울러 가짜 정보 확산을 막기 위해 AI가 생성한 콘텐츠에 대해선 워터마크를 표시할 수 있도록 인프라를 구축하도록 했다.
블룸버그는 이번 행정명령을 두고 "우려와 찬사를 동시에 불러일으키는 AI 기술을 규제하기 위해 바이든 정부가 취한 가장 중요한 조치"라고 의미를 짚었다. 앞서 챗GPT 같은 생성형 AI의 등장으로 AI의 편리성이 크게 주목받았지만 가짜 정보 확산이나 편견을 조장하는 등 AI의 부작용에 대한 우려도 커진 상황이다.
한편 11월 1일 영국에서 예정된 사상 첫 'AI 정상회의'를 앞두고 주요 7개국(G7)은 첨단 AI 시스템 개발 기업을 위한 행동강령에 합의할 것으로 예상된다.