(사진=셔터스톡)
(사진=셔터스톡)

미국 정부가 인공지능(AI) 개발자와 클라우드 사업자에게 새로운 기술 개발 시 안전 보고서를 제출하도록 요구하는 새로운 규정을 예고했다.

로이터는 9일(현지시간) 미국 상무부 산업안보국(BIS)가 고급 AI 개발자와 클라우드 컴퓨팅 제공업체에게 기술이 안전하고 사이버 공격을 견딜 수 있는지 확인하기 위해 상세한 보고 요건을 제출할 것으로 제안했다고 보도했다.

프론티어 AI 모델과 컴퓨팅 클러스터의 개발 활동에 대해 연방 정부에 의무적으로 보고한다는 내용이다.

BIS는 “이번 조치는 AI가 안전하고 신뢰할 수 있으며 사이버 공격을 견딜 수 있고 외국의 적대 세력이나 비국가 행위자에 의한 오용 위험이 제한돼있다는 것을 보장하기 위한 것”이라고 밝혔다.

이에 따라 의무적으로 보고해야 할 사항에는 ▲개발 활동 ▲사이버보안 조치 ▲레드팀 활동 결과등이 포함된다.

특히 외부 모니터링 활등인 레드팀 보고에는 사이버공격 지원 능력 테스트, 화학무기, 생물학무기, 방사선무기 또는 핵무기 개발 진입 장벽을 낮추는 능력 테스트, 기타 위험한 역량 테스트 등이 포함된다.

지나 라이몬도 상무부 장관은 "AI가 급속히 발전함에 따라 엄청난 잠재력과 위험을 동시에 안고 있다"라며 "이 제안된 규칙은 우리가 국가 방위를 강화하고 국가 안보를 보호하기 위해 AI 기술의 새로운 발전에 발맞추는 데 도움이 될 것”이라고 말했다.

바이든 행정부는 2023년 10월 안전한 AI 개발을 목표로 하는 행정 명령을 발표하며 후속 조치를 예고했다. 또 백악관은 AI 법안을 제정하기 위해 의회와 협력할 것이라고 밝혔다.

특히 이번 조치는 최근 논란이 많은 캘리포니아 AI 규제 법안이 제정 중인 시점에 나온 것이라 눈길을 끈다.

이번에 발표한 연방 정부의 규제 조치는 논란을 일으킨 캘리포니아주의 'SB 1047'법안과 흡사하다. 이에 따라 실리콘 밸리 기업들은 "주가 아니라 연방 정부에서 마련해야 할 규제"라며 반발했다.

상무부는 마치 이런 주장을 기다리기라도 했듯, 규제안을 발표한 것이다. 이 경우 연방의 규정은 상위법으로서, 주 정부의 규제안을 사실상 무용지물로 만들 수 있다는 지적이 나온다.

박찬 기자 cpark@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지