국가인권위원회(위원장 송두환)는 과학기술정보통신부장관에게 인권침해를 방지하기 위해 인공지능(AI) 개발·활용시 'AI 인권영향평가 도구'를 사용하고 공공기관에서 자율적으로 평가를 수행할 필요가 있다는 의견을 표명했다고 9일 밝혔다.
인권위는 지난 4월 '인권영향평가 도구'를 외부 전문가 검토 및 의견수렴, 정보인권전문위원회 논의를 거쳐 국가인권위원회 상임위원회의 의결로 확정한 바 있다.
기존 법령에 따른 영향평가 제도나 부처별 AI 윤리기준 자율점검표 등으로는 고위험 AI의 인권침해 위험성을 통제하는데 한계가 있다고 설명했다.
그동안 인권위는 2022년 ‘AI인권 가이드라인 권고’, 2023년 ‘AI법률안에 대한 의견표명’ 등을 통해 정부와 국회에 '인권영향평가'의 도입을 촉구한 바가 있다.
AI는 불투명성과 파급효과 때문에 사후적인 피해 구제나 제재가 어렵기 때문에 사전예방적 인권영향평가(HRIA)가 필요하다는 것이다. HRIA는 정책 및 사업 등의 계획과 활동이 인권의 보호와 증진에 부합하는지를 사전에 평가하고 검토하는 것을 뜻한다.
특히 UN과 세계 각국은 공공부문 AI와 민간부문 고위험 AI가 사람들에게 미치는 부정적 영향에 주목하고, 이를 사전에 예방하고 관리하기 휘애 다양한 영향평가를 제안하고 도입하는 추세에 있다.
인권영향평가는 총 4단계 72개의 문항으로 구성돼 있다. ▲계획 및 준비 단계 ▲분석 및 평가 단계 ▲개선 및 구제 단계 ▲공개 및 점검 단계 등 단계별로 AI의 기술적 위험성뿐만 아니라 인권에 미치는 영향 및 심각도를 총체적으로 점검할 수 있도록 제시했다.
인권위는 "'AI 인권영향평가 도구'의 보급을 통해 AI기술이 인권친화적으로 개발·활용되는 한편, AI인권영향평가가 법제화되는 계기가 마련되기를 기대한다"라고 밝혔다.
박수빈 기자 sbin08@aitimes.com
