‘남성’·‘여성’ 등 이분법적 성별 라벨 폐기
비성별 라벨 지정…편견 방지 효과 기대

기사 내용과 무관함. ©AI타임스
기사 내용과 무관함. ©AI타임스

(AI타임스=윤영주 기자) 구글의 인공지능(AI) 툴에서 성별 구분 라벨이 사라진다.

지난 20일(현지시간) 비즈니스 인사이더(Business Insider)와 포브스(Forbes) 등 외신 보도에 따르면 사진 속 물체를 인식할 수 있는 구글 AI 툴이 더 이상 ‘남성’ 또는 ‘여성’과 같은 성별 관련 라벨을 사람들의 이미지에 표시하지 않게 됐다. 구글이 제공하는 ‘클라우드 비전 에이피아이(Cloud Vision API)’는 개발자가 콘텐츠·이미지 내용을 식별하고 사진에 라벨을 지정할 수 있는  AI 기반 물체 인식 기술 서비스다. 이를 통해 개발자는 얼굴과 브랜드 로고, 랜드마크, 기타 콘텐츠·이미지 등을 감지하고 분석할 수 있는 것이다.

구글은 지난 20일 개발자들에게 송부한 메일을 통해 “인간의 성별(gender)은 외모만으로 추론될 수 없기 때문에 구글의 AI 원칙에 맞춰 이 같은 성별 라벨을 이미지 태그에 사용하지 않기로 결정했다”고 전했다. 구글은 자사의 ‘AI 윤리 원칙’ 그중 특히 ‘불공정한 편견 방지에 관한 원칙 #2’를 언급하면서 성별을 구분한 사진이 불공정한 편견을 더욱 키울 수 있다고 설명했다. 이어 “대신 ‘사람’처럼 성별을 구분하지 않은 비성별 라벨을 사람들의 이미지에 지정할 예정”이라고 덧붙였다.

구글은 알고리즘과 데이터 세트가 편견을 더 키울 수 있다고 지적한다. 특히 인종과 민족, 성별, 국적, 소득, 성적 취향, 능력, 정치적·종교적 신념 등 민감한 특징과 관련돼 있는 사람들에 미칠 부정적 영향을 막고자 노력할 것이라고 전했다.

모질라(Mozilla)의 한 기술 정책 전문가는 “사람들을 남성 또는 여성으로 분류하는 것은 성별을 이진법(binary)적으로 가정한다는 걸 의미한다”며 “둘 중 하나에 부합되지 않는 사람은 자동적으로 잘못 분류되고 성별도 잘못 부여된다”고 말했다. 또 “사람들을 자동으로 분류할 때마다 그들의 성별이든 성적 취향이든 관계없이 어떤 카테고리를 사용할 것인지를 우선 결정할 필요가 있다”며 이번 구글의 변화에 대해 “매우 긍정적”으로 평가했다.

한편, 지난해 북유럽 IT 기업 버추 노르딕(Virtue Nordic)이 최초로 남성도 여성도 아닌 젠더리스 AI 보이스 ‘큐(Q)’를 공개한 바 있다. 이는 AI 제품에서 드러난 성차별에 대한 문제 인식으로부터 비롯된 것이다. 당시 젠더리스 AI 음성은 성소수자들에게도 큰 지지를 얻었다. 즉 AI 분야에서도 점차 남성과 여성이라는 이분법적 사고에서 벗어나려는 움직임이 시작된 셈이다.

AI 서비스나 제품 등에 나타난 편향된 시각 혹은 편견·선입견에 대한 문제는 AI 기술의 사용이 확대됨에 따라 점점 더 논란이 되고 있는 추세다. 예를 들어 안면인식 알고리즘의 경우 백인보다 유색 인종을 더 오인하는 경향을 보인다는 지적이 있어왔다. 이에 구글의 이번 결정은 향후 AI 기술 분야에서 성별뿐 아니라 여러 측면의 편견들을 줄여나가는 데 기여할 수 있을 것으로 기대된다.