NIST, 189개 안면인식 알고리즘 집중조사...대부분이 인구학적 차이 보여
다큐멘터리 ‘알고리즘의 편견(Coded bias)’, 흑인 여성의 비애 잘 드러내
"교육 데이터 제공자가 데이터에 편향하고 있거나 데이터에서 편향을 알아차리지 못하기 때문"

(출처=셔터스톡)

AI의 부작용에 대한 우려의 목소리가 높아지는 가운데 미국의 국립표준기술연구소(NIST)가 AI의 편견 해소에 적극 나서고 있다.

최근에 NIST가 인공지능의 편견을 파악하고 관리하는 방안을 내놓았다고 비즈니스 인슈어런스(Business Insurance)가 지난 22일 보도했다.

NIST는 제안서를 통해 “머신러닝에 기반한 모델링 및 예측 접근법의 확산이 AI의 다양한 사회적 편견을 노출하는 데 도움을 주었다.”며, “일반 대중들이 AI의 사회적 위험에 대해 우려하고 있다는 증거들이 늘어나고 있다,”고 지적했다.

아울러, 이미 배치된 기술과 생산 중인 기술 모두에서 해로운 편견을 줄이는 메커니즘을 마련해 AI 시스템에 대한 신뢰도를 높일 수 있다는 것이 그들의 제안이다.

NIST가 AI의 편견 해소에 적극 나서고 있는 활동 중의 하나가 바로 얼굴 인식 알고리즘이다. 얼굴 인식은 얼굴에서 미지의 사람을 확인하거나 신원을 확인하는 방법이다.

하지만 이 알고리즘에 인종적 편견이 드러나고 있어 사회적 문제가 되고 있으며, 지난 2019년에 발표한 NIST의 보고서에는 이 사실들을 증명할 사례들이 밝혀져 있다.

대다수 기관의 안면 인식 편향 존재

미국 국립표준기술연구소(NIST)가 성별·연령·인종에 따라 안면 인식 알고리즘의 정확도가 어떻게 달라지는지를 조사한 보고서를 발표했다고 지난 2019년 12월 19일 자 NIST 웹사이트 뉴스에서 보도했다.

그 결과, 대다수의 안면 인식 알고리즘이 인구 통계적 편향을 보이는 것으로 드러났다. NIST는 이 연구 결과를 위해 미 정부 기관이 사용하고 있는 189개의 안면 인식 알고리즘을 조사했다.

이 연구는 얼굴 인식 소프트웨어가 다양한 성별, 나이 및 인종 배경을 가진 사람들을 얼마나 정확하게 식별하는지를 조사한 것이다.

시스템의 알고리즘, 애플리케이션, 그리고 제공하는 데이터 등에 문제가 밝혀졌는데, 대부분의 얼굴 인식 알고리즘이 인구학적 차이를 보인 것으로 나타났다.

NIST는 얼굴 인식 벤더 테스트(Face Recognition Vendor Test, FRVT)를 지난 2000년부터 2017년까지 수차례 진행해왔다. 이는 얼굴 인식 시스템에 대한 일련의 독립적인 평가다. 이후 인구통계학적 효과(Demographic Effects) 3번째 보고서를 발표했다.

이 보고서의 주요 작성자인 패트릭 그로더(Patrick Groder)박사는 “우리가 연구한 얼굴 인식 알고리즘의 대다수에 인구통계학적 차이가 존재한다는 경험적 증거를 발견했다.”라며, “이 데이터는 정책 입안자, 개발자 및 최종 사용자 등에게 매우 유용할 것이다.”고 밝혔다.

얼굴 인식 알고리즘에 편견 있어

실제로, 최근까지도 미국의 각종 기관에서 시행하고 있는 얼굴 인식 프로그램엔 인종적 편향이 있는 것으로 밝혀졌다.

올해 4월 12일자 미국의 뉴스원(NEWS ONE) 보도에 따르면, 넷플릭스(Netflix)의 새 다큐멘터리 ‘알고리즘의 편견(Coded bias)’에서도 한 흑인 여성의 비애가 담긴 영상이 공개됐다. 이 영상은 얼굴 인식과 알고리즘 등의 인종차별 기술을 탐구하는 프로그램이다.

이 다큐 영화의 주인공 ‘조이 부올람위니(Buolamwini)’는 MIT 연구원으로 얼굴 인식 프로그램을 작동시킨 컴퓨터의 웹 카메라 앞에서 하얀색 가면을 자기 얼굴 위에 덮어썼다.

그 결과, 조금 전까지 전혀 반응하지 않던 얼굴 인식 프로그램 소프트웨어가 하얀색 가면을 쓰자, 곧바로 반응하기 시작했다. 조금 전에 이 카메라는 흑인인 자신의 얼굴을 찍고, 오류 메시지, 즉‘No Face Detected(얼굴 발견 못 함)’를 냈었다.

아울러 그녀는 소프트웨어를 훈련하는데, 사용된 데이터 세트를 살펴본 결과, 대부분의 얼굴이 백인이라는 것도 알았다.

미국 뉴욕타임스(NYT)의 지난 2019년 기사에도 얼굴 인식 소프트웨어가 여성과 흑인 얼굴보다 백인 남성 얼굴에 훨씬 더 잘 작동했다는 것을 보여주는 사례들이 나온다.

NIST, 알고리즘 편견 해소에 나서

다행스러운 일은 현재 미국의 기관과 글로벌 기업들이 인공지능의 알고리즘 편향에 적극 대처하고 있다는 사실이다.

지난 2020년 9월 3일자 인포월드(InfoWorld)는 지난해 7월에 나온 NIST 연구에서 얼굴 인식 기술의 편견 문제가 개선되고 있으며 오류율도 2년마다 절반씩 감소하고 있는 것으로 조사됐다고 보도했다.

미 정부 산하 단체들은 특정 장소나 특정한 용도로 얼굴 인식 소프트웨어의 사용을 전면 금지하고 있다. 지난 2019년 샌프란시스코 市는 경찰과 다른 법 집행 기관의 얼굴 인식 소프트웨어 사용을 금지한 최초의 도시가 됐다.

글로벌 기업들도 이런 기관의 노력에 동참하고 있다. 마이크로소프트(MS)는 얼굴 인식에 대한 연방 규제를 요구했다. 이어 지난해 6월에 MS는 얼굴 인식 소프트웨어를 판매하지 않을 것이라고 발표했다.

또 아마존(Amazon) 역시 1년 동안 경찰의 인지 기능 사용을 금지했으며, IBM도 얼굴 인식 기술을 포기하는 데 동참하고 있다.

편향된 교육 데이터가 원인

인공지능의 편견을 좌우하는 알고리즘에 대한 원인도 속속 밝혀지고 있다.

올해 1월 22일자 터워드 데이터 사이언스(Towards Data Science) 기사에는 AI 시스템의 편향과 이를 개선하기 위한 노력에 관한 기사가 실렸다.

기사에 따르면, 미국 뉴욕대 AI 나우연구소는 지난 2019년 4월 인공지능(AI)의 편향성에 대해 발표한 보고서를 통해 편향된 데이터 문제를 지적했다.

즉, 머신러닝 학습 알고리즘은 교육 데이터에서 학습한 내용을 기반으로 새 데이터의 출력을 정확하게 예측하는 것이다. 그런데 입력되는 새 데이터에 교육 데이터 세트로부터 이전에 볼 수 없었던 기능이 포함된 경우, 인공지능은 이 새 데이터를 인식하지 못할 수 있다는 것이다.

예를 들면, 사진에 말과 개가 있는지 분류하는 ML 모델을 교육하고 있다면, 교육 데이터 세트에서는 수십만 개의 치와와와 종마 이미지를 제공한다.

만약에 당신의 머신러닝 학습 모델에 말로 편향된 데이터를 갖고 있다면, 사냥개 ‘그레이트데인(Great Dane)’의 이미지를 보여줄 경우, AI는 이를 말(馬)로 잘못 분류할 수도 있다는 설명이다.

결국, AI에서 편견이 발생하는 진짜 이유는 교육 데이터를 제공하는 담당자가 데이터에 편향하고 있거나 데이터에서 편향을 알아차리지 못하기 때문이라는 것이다.

그럼에도 불구하고, 미 정부와 기업 차원에서 AI의 편견 해소에 적극 나서고 있는 것은 매우 고무적이라고 보고서는 강조했다.

AI타임스 조행만 객원기자 chohang5@kakao.com 

[관련 기사]멀고도 먼 AI윤리의 길... “2030년에도 AI윤리 정립 어려울 것” 미 설문조사 결과 나와

[관련 기사]“스마~일” 중국 캐논, 웃어야만 입장 가능한 안면인식 카메라 도입...MS·아마존도 직원감시 논란

키워드 관련기사
  • 과기정통부, 2022년 R&D 예산 23조5천억원...전년대비 4.6% 증가
  • ML석학 조나단 쉐퍼 교수 "한국, AI 상위 10개국 될 것...AI 대중화 앞장서야"
  • 테슬라, 엔비디아 ‘암페어’ A100 탑재한 슈퍼컴 공개..."세계 5위 슈퍼컴 가능"