인공지능도 인간처럼 편견에 사로잡힐 수 있다는 사실이 밝혀지면서 논란이 되고 있다. 이는 지금까지 믿어지던 인공지능의 공정함에 의문이 제기되는 단초가 될 것으로 보인다.

언론 관련 비영리단체 프로퍼블리카의 최근 연구에서 미국 판사들이 활용하는 범죄 예측 인공지능에 관련된 데이터가 편향돼 있었던 사실이 밝혀지면서 인공지능을 믿을 수 있는가에 대한 논쟁이 촉발됐다. 이에 대해 해당 알고리즘 제조사 노스포인트는 연구에 근거가 부족하다며 이의를 제기했으나 논란은 쉽게 가라앉지 않는 모양새다.

▲경찰 사이렌(출처=게티이미지)

범죄 예측 프로그램

이에 따라 최근 활용도가 높아지는 범죄 예측 인공지능에 대한 재검토를 요구하는 목소리 또한 높아지고 있다. 미국에서는 현재 크라임스캔, 프레드폴과 같은 범죄 예측 프로그램이 활동 중이다.

1. 크라임스캔

작은 범죄가 큰 범죄의 불씨 역할을 한다는 개념에 입각해 범죄를 예측하는 크라임스캔은 다니엘 닐과 카네기 멜론 등에 의해 개발됐다. 인공지능을 개발한 다니엘 닐은 더 큰 범죄로 이어지는 작은 범죄들을 선행지표로 활용한다며, “크라임스캔의 역할은 화재가 시작되기 전 불씨를 알아채는 것”이라고 설명했다.

2. 프레드폴

프레드폴은 예측 치안 유지를 위한 소프트웨어다. 미국시민자유연맹(UCLA)의 과학자들은 로스엔젤레스 경찰과의 협력을 통해 범죄 활동 패턴을 예측하는 프로그램을 개발했다. 현재 프레드폴은 현재 인근 지역에서 특정 시일에 일어날 가능성이 높은 범죄를 확인하기 위해 미국 전역에서 활용되고 있다.

3. 시카고시 범죄 예측 프로그램

두 소프트웨어는 모두 범죄가 발생할 가능성이 높은 지역을 파악하는 일에만 결과를 제한하고 있으며, 실제로 범죄를 저지를 범죄자들을 예측할 수는 없다. 이를 보완하기 위해 시카고시는 피해자 또는 피의자로 총격 사건에 연관된 확률이 높은 대상들을 보여주는 시 고유의 예측 프로그램을 사용해 강력범죄 예방 활동을 실시하고 있다.

인공지능의 편향성

브레넌 정의센터, 미국시민자유연맹, 그리고 이 외의 몇몇 시민 평등권 관련 단체들은 이러한 인공지능 소프트웨어가 편향되어 있을 수 있다는 우려를 표했다. 그러면서 알고리즘이 소위 “나쁜” 동네와 “좋은” 동네의 구분에 의존하고 있다면서 이는 고스란히 편견으로 이어진다고 비판했다. 또한 이렇게 조성된 편견은 인공지능에 의해 예측된 범죄율을 더욱 왜곡시킬 수 있다면서 소위 ‘편견의 악순환’을 가속시킬 수 있다고 우려했다. 실제로 이러한 체포 건수는 제보가 이루어진 범죄보다는 경찰의 판단에 의존한다.

한편 범죄 발생을 예측하는 것 자체에 대한 효용성에도 의문이 제기됐다. 컬럼비아 특별구 대학의 법학 교수인 앤드루 퍼거슨은 범죄가 특정 지역에 발생한다고 해서 정확히 어디의 누군가가 저지르는지 모르는 이상, 체포에 큰 도움이 되지 않는다고 지적했다. 그러면서 퍼거슨은 경찰들이 높은 수준의 범죄 활동을 보이는 지역을 제시하는 의견을 올바르게 평가하고, 이러한 지역의 특정 개인보다는 수치에 주목해야 한다고 말했다.

▲주차장에 설치된 CCTV(출처=게티이미지)

인공지능의 검증, 제대로 이루어질까

한편 이러한 인공지능이 전문가들과 일반 대중 사이의 정보격차를 심각하게 유발하고 있다는 지적 또한 나오고 있다. 또한 알고리즘을 구성하는 대입값에 대한 검토와 논의 없이 무조건적으로 신뢰하는 것에 대한 의문도 제기됐다.

연구단체인 올나우의 공동창업자 메레디스 휘테커는 대중들에게 이러한 소프트웨어의 사용에 대해 논의하거나 사용을 감시할 기회가 없으며, 사용자와 사용 대상 모두가 예측에 사용되는 데이터를 모르고 있는 경우가 대부분이라고 언급했다.

또한 휘테커는 공공기관들이 도입한 인공지능 소프트웨어에 대한 법적, 도덕적 문제를 등한시하고 있다며 이러한 인공지능에 지나치게 의존하는 것은 위험하다고 경고했다. 그러면서 “판사에게 딥 뉴런 네트워크 개발을 맡기지는 않는다”며 공학자들에게 범죄 행정에 대한 적절한 판단을 기대해서는 안 된다고 말했다.

한편 비영리 연구단체 민주주의정보통신센터는 공학자들과 프로그래머들이 편향되지 않은 알고리즘 개발을 돕기 위한 디지털 결정 도구를 개발했다. 해당 프로젝트의 책임자 나타샤 두아르테는 “인공지능의 편향성을 알아내는 방법이 중요해지고 있다”며, “이번 연구로 인공지능 데이터 검증의 기초를 확립했다”고 자평했다.

인공지능의 활용도는 하루가 다르게 높아지고 있다. 이에 따라 인공지능의 오류와 편향성에 대한 검증의 칼날도 날카로워질 전망이다.