주요 AI기업 음성인식 백인 데이터만 학습
흑인 음성 인식 오류 2배 높아

 

(사진=셔터스톡)
(사진=셔터스톡)

인공지능(AI)으로 구현한 음성인식에 인종차별이 존재한다는 증거가 나왔다. 

미국 스탠포드대학이 지난 23일 미국국립과학원회보(PNAS)에 아마존, 구글, 애플, 마이크로소프트, IBM이 개발한 음성인식 기술이 흑인 목소리에서 백인에 비해 두배나 많은 오류가 발생한다는 연구결과를 게재했다고 네덜란드 TNW가 24일(현지시간) 보도했다.

이에 따르면 동일한 성별과 연령의 화자가 같은 단어를 정확히 말할 때도 5가지 시스템이 모두 동일한 오류율을 생성했다.

스탠포드는 이와 관련해 시리(Siri)나 알렉사(Aisxa) 등 인공지능 비서에 이들 기술을 사용하고 있다면 많은 사용자의 일상생활에 큰 영향을 미칠 수 있는 질낮은 서비스를 제공하는 것이라고 전했다.   

음성인식은 이미 이민 판결이나 채용 결정 및 법원보고 등에 사용되고 있다. 또 향후 몇 년 동안 기술이 급속도로 확대되면서 인종 편견은 직업과 삶에 심각한 영향을 미칠 수 있다.

스탠포드 연구진은 흑인과 백인을 포함한 미국인과의 인터뷰에서 2000개 이상의 음성 샘플로 각 회사 음성인식기술을 테스트했다. 결과는 백인에게서는 19%에 머물렀던 단어 오류가 흑인에게서는 35%나 나타났다. 특히 흑인 남성에게서 오류율이 높았다.

이같은 문제는 AI가 백인이 제공한 데이터에 의존해 학습한 결과로 예측됐다. 

연구를 총괄한 샤라드 고엘 교수는 이번 연구가 새로운 기술에 대한 독립적인 감사의 필요성을 보여 주는 것으로 분석했다.

그는 "스스로 규제하는 기업에 의존할 수 없다. 기업이 설정한 결과는 아니겠지만 기업 스스로 독립적인 감사를 하도록 대중이 압력을 가하거나 정부기관이 개입할 필요가 있다"면서 "사람들은 삶에 영향을 미치는 기술이 실제로 얼마나 잘 작동하는지 알 권리가 있다"고 말했다.

키워드 관련기사
  • [이정태의 뒤뚱뒤뚱] AI윤리, 어쩌다 한번 챙길 게 아니다
  • 인공지능(AI) 개발의 중심에는 사람이 있어야
  • "AI스피커로 내 정보 샌다"...美클렘슨대 연구팀 조사 결과