(사진=NIST)
(사진=NIST)

미국 상무부 국립표준기술연구소(NIST)는 인공지능(AI) 기술의 위험을 관리하는 데 도움이 되는 'AI 위험 관리 프레임워크(AI RMF)'를 발표했다고 벤처비트가 26일(현지시간) 보도했다.

이에 따르면 NIST는 AI 시스템의 설계, 개발, 배포, 사용 과정에서 신뢰성을 확보하기 위해 프레임워크를 살펴보고 적용하는 구체적인 매뉴얼을 함께 제공한다.

이는 지난 2020년 미 의회가 '국가인공지능법'을 통해 NIST에 AI RMF를 개발하도록 지시한 결과로, NIST는 2021년 7월부터 워크숍과 공개토론회 등을 통해 의견을 수렴해왔다.
 
NIST는 AI RMF가 ▲AI와 관련된 위험을 구성할 수 있는 방법에 대해 논의하고 신뢰할 수 있는 AI 시스템의 특성을 설명하며 ▲조직이 실제로 AI 시스템의 위험을 해결하는 데 도움이 되는 4가지 특정 기능(거버넌스, 매핑, 측정, 관리)을 설명한디고 밝혔다.

더불어 관계자들의 참가가 필요하다고 강조했다. 로리 로카시오 상무부 차관은 "의회는 이 자발적 지침의 필요성을 분명히 인식하고 이를 NIST에 최우선 순위로 지정했다"며 "NIST는 우선순위를 구체화하는 데 커뮤니티의 대규모 피드백을 기대하고 있다"고 말했다.

돈 그레이브스 상무부 차관은 "AI RMF를 구축하는 짧은 기간 동안 AI 혁신의 속도와 범위에 놀랐다"며 "이 프레임워크의 진정한 가치가 실제 사용을 통해 프로세스와 문화, 관행에 영향을 미치는 데 있다는 점을 알기 때문에 충분히 시간을 들여 만들었다"고 전했다.

AI RMF 1.0 표지 (사진=NIST)
AI RMF 1.0 표지 (사진=NIST)

이에 대해 코트니 랑 정보기술산업협의회 이사는 "AI 위험 관리에 대한 전반적인 방법을 제공하며 도움이 되는 유익한 참고 자료”라고 평했다. 

반면 브래들리 톰슨 엡스타인 베커 그린 변호사는 "매우 일반적인 내용에 높은 수준을 요구하고 있어 현실적으로 큰 의미는 없다"며 “대신 모든 AI를 규제하려는 시도라는 차원에서 문제가 있다"고 비평했다.

심지어 켈 칼슨 도미노데이터랩 책임자는 "비전문가가 위험 관리를 맡을 경우 프레임워크부터 뒤져보려는 유혹을 강하게 받을 것"이라며 "이는 보안에 대한 잘못된 인식과 실제 위험 감소 없이 노력만 낭비하는 결과를 초래할 수 있다"고 경고했다.

그럼에도 AI 위험 관리와 관련해 모범 사례가 부족, 실무자들은 명확한 지침이 필요하다는 입장이다.

앤드류 버트 비엔에이치닷에이아이 관리자는 "AI 위험 관리 실무자들은 자주 황량한 서부에서 혼자 활동하고 있는 것처럼 느낀다"며 “NIST의 AI RMF가 미국뿐만 아니라 전 세계적으로 AI 위험을 관리하는 표준을 설정하기를 기대한다"고 말했다.

AI RMF는 NIST 홈페이지에서 확인할 수 있다.

임대준 기자 ydj@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지