국적 등 정보 기반 녹‧황‧적색 색상 코드 부여
7일부터 사용 중단…올해 하반기 재검토‧재설계
비자 알고리즘 시스템 관련 법적 절차 진행 중

(사진=Shutterstock).
(사진=Shutterstock).

영국이 비자 승인 결정을 내리는 데 사용해왔던 인공지능(AI) 알고리즘을 더이상 사용하지 않겠다고 선언했다. 인종 편향성 논란이 일고 있는데 따른 조치로 보인다.

최근 안면인식을 비롯해 인종차별을 조장하는 AI 알고리즘이 뜨거운 감자로 떠오르고 있어 이같은 움직임에 이어 알고리즘을 개선하려는 움직임도 가속화될 전망이다.

프리티 파텔 영국 내무장관이 인종 편향적이라는 비판을 받고 있는 비자 신청 처리 알고리즘 시스템의 사용 중단 의사를 밝혔다고 MIT 테크놀로지 리뷰와 BBC 등 주요 외신이 5일(현지시간) 전했다.  

이번에 영국이 사용중단을 선언한 AI 시스템은 지난 2015년부터 도입돼 비자 신청자들이 제공한 정보를 토대로 자동 처리를 통해 각 개인에게 녹색‧황색‧적색 등 교통 신호등과 같은 색상 코드를 부여한다. 이번 논란의 핵심은 알고리즘에서 사용된 측정 기준 가운데 하나가 바로 '국적'이라는 데 있다.

그동안 영국의 비자 신청 처리 시스템을 둘러싸고 인종차별적이라는 의혹이 꾸준히 제기돼왔다. 이민자복지공동협의회(JCWI)와 디지털권리단체인 폭스글로브는 이 시스템에 대해 법적인 이의제기 절차에 착수하기도 했다.

폭스글로브는 해당 시스템을 ‘백인을 위한 스피디 보딩’이라고 지칭했다. 아울러 내무부가 자동적으로 적색 등급을 부여할 국적 비밀 리스트를 가지고 있다고 지적했다. 다시 말해 소위 불량 국적의 국민들은 적색 등급을 받아 비자 신청을 거부당할 가능성이 크다는 주장이다.

또 JCWI도 비자 알고리즘이 국적을 기준으로 차별적으로 작동하고 있다고 말했다. 이어 “적색 등급으로 낙인찍힌 국가 출신의 사람들은 내무부 직원의 집중적인 조사를 받고 비자 승인 결정을 내리기까지 더 많은 시간이 소요되는 데다 거절당할 가능성도 훨씬 높다”고 덧붙였다. 이 같은 절차는 인종 차별에 해당하며 평등법 위반이라는 설명이다.

(사진=Shutterstock).
(사진=Shutterstock).

그러나 내무부는 알고리즘을 ‘간소화’ 시스템이라고 정의했다. 즉 이번 결정이 폭스글로브 등의 지적을 전적으로 수용하고 혐의를 인정한다는 의미는 아니라는 말이다. 내무부는 성명을 통해 “비자 신청 처리 시스템이 어떻게 작동하는지 검토하고 있으며 향후 비자 신청 절차의 효율성과 안전성 제고를 위해 재설계할 계획”이라고 말했다.

논란이 되고 있는 알고리즘은 8월 7일부터 사용 중단된다. 영국은 올 가을 경에는 재설계된 시스템을 적용‧시행할 것으로 예상하고 있다. 새로운 제도가 시행되기 전까지는 국적을 고려하지 않고 특정 개인에 대한 정보에 기초해 비자 신청 절차가 이뤄지게 된다. 내무부는 아직 관련 소송이 진행 중인 가운데 더 이상의 언급은 할 수 없다는 입장을 밝혔다.

한편 최근 이 같은 알고리즘은 비자 신청뿐 아니라 다양한 영역에서 중요한 결정을 내리는 데 점점 더 많이 이용되고 있다. 동시에 인종차별적인 제도적 편향성을 고착화하는 데 일조하고 있다는 비판의 목소리가 커지고 있다. 일각에서는 이번에 영국 내무부가 법적 판결에 앞서 내린 AI 의사결정 알고리즘 시스템의 재검토 결정이 하나의 이정표가 될 수 있다는 의견도 나오고 있다.

[관련기사] 페이스북, 인종차별 조장 알고리즘 개선 모색

[관련기사] 사진만으로 범죄자 예측?…AI 편향성 논란 재점화