사회적 약자 인권문제 관련, 뜨거운 논란 예상
이달 말 출시 “픽셀 4” 안면인식 잠금해제 기능 성능향상 위해 수집 충격

© shutterstock
© shutterstock

(AI타임스=양태경 기자) 구글(Google)의 하청업체들이 ‘안면인식’ 알고리즘 훈련을 위해 "어두운 피부"를 가진 노숙자들을 타겟으로 하고 있다고 아이오티뉴스가 지난 4일(현지시간) 전한 가운데 사회적 약자의 인권문제와 관련, 뜨거운 논란이 예상된다.

그간 ‘안면인식’ 알고리즘은 유색인종을 식별하는 데 있어 많은 한계를 노출해 왔다고 전해진다. 이렇게 한계를 보인 원인들 중 일부는 훈련 알고리즘을 위한 대부분의 데이터들이 다양한 피부색을 고려하지 못했기 때문인 것으로 풀이된다.

구글(Google)의 인력관리자들이 인력파견 회사인 랜스태드(Randstad)社를 통해 고용한 하청업체 직원들의 미션은 특히 "어두운 피부톤"을 가지고 있고 5 달러 상당 기프트 카드 형태의 금전적 보상에 유인될 수 있는 사람들을 찾아내는 것이었다.

구글(Google)의 한 이전 하청업체는 뉴욕데일리뉴스(New York Daily News)와의 인터뷰에서 "노숙자들은 언론에 어떤 말을 할 가능성이 가장 낮기 때문에 그들을 타겟으로 삼으라고 했다"며 "그 노숙자들은 이러한 ‘안면인식’ 알고리즘 훈련을 위해 자신들이 이용당하고 있다는 것을 전혀 몰랐다"고 털어 놨다.

한편, 또 다른 하청업체는 심지어 "구글(Google)이 우리 같은 하청업체가 사회적 약자를 수탈하기를 원하는 것처럼 느껴졌다"고 말해 충격을 더해 주고 있다.

또한 구글(Google)이 노숙자들을 현혹하는 전략으로, 얼굴 스캔에 동의하도록 하기 위해 '셀피게임'(selfie game)이라고 부르며 연구대상으로 이용된 노숙자들에게 가지고 노는 장난감처럼 장치들을 하청업체들이 제공하도록 했는데 실제로는, 노숙자들의 얼굴이 스캔되고 있었던 것이다.

‘셀피게임’ 참가자들의 얼굴 스캔은 이달 말 구글(Google)이 출시하는 플래그십 스마트폰 “픽셀 4”에 장착될 "안면인식 잠금해제" 기능의 성능향상을 위한 ‘안면인식’ 알고리즘 훈련을 위해 수집된 것으로 드러났다.

미국시민자유연맹(American Civil Liberties Union, ACLU)과 함께 하는 변호사인 제이크 스노우 씨는 그의 트위터에 "구글(Google) 하청업체의 이런 기만술은 절대 용납할 수 없는 행위이며 따라서 오늘날 인공지능(AI)이 개발되는 방식을 바꿔야 한다"며 "알고리즘이 만들어 내는 유색인종에 대한 편향성을 교정하기 위해 사회적으로 가장 취약한 계층을 타겟으로 데이터를 얻는 행위는 당장 중단되어야 한다"고 언급해 구글(Google) 측이 어떠한 답변을 내 놓을지 세계인의 관심이 집중되고 있다.

아마 구글(Google)도 ‘안면인식’ 기술을 개발중인 다른 모든 기업들과 마찬가지로, 그들의 기술이 법적인 테두리 안에서 그리고 또 사회 전반의 일반 사람들로부터도 안전한 기술로 인정받기를 원할 것이다.

그렇기 때문에 심지어 현재 일부 경찰들 사이에서조차도 잘못 도입된 ‘안면인식’ 알고리즘이 유색인종에 대한 편견을 가중시킬 수 있다고 지적하는 이유일 것이다.

만약 구글(Google)이 유색인종에 대한 편견을 막기 위해 자체 ‘안면인식’ 알고리즘으로, 혹시 윤리문제로 불거질 지도 모를 논란에 정면승부를 하고 있는 것이라면, 오히려 이 상황이 비윤리적으로 데이터를 수집하는 방법에 대한 더 많은 우려를 불러일으킬 것이 분명하다.

어쨌든, 구글(Google)이 하청업체들을 통해 취한 접근방식은 하지 말았어야 할 일을 한 전형적인 본보기가 될 가능성이 크다.

【에이아이타임스 aitimes 에이아이타임즈】