인공지능(AI)이 로봇을 ‘인종차별적’이고 ‘성차별적’으로 만들 수 있다는 연구 결과가 나왔다. 사실 그동안 AI의 편향성을 둘러싼 논란이 지속적으로 제기돼 온 만큼 이는 그리 놀라운 이야기는 아니다. 그럼에도 불구하고 최근 존스홉킨스대‧조지아공과대‧워싱턴대 연구팀이 진행한 연구에서 로봇이 보여준 모습은 AI 편향성에 대한 경각심을 일깨워준다.
지난 8일(현지시간) 데이터코노미(Dataconomy)에 따르면 최근 컴퓨터공학 공정성 연구분야 국제학회인 ‘ACM FAccT’를 통해 발표된 연구에서 AI 로봇이 인간을 분류할 때 성별과 인종 등에 따라 선입견을 갖고 선택하는 것으로 나타났다. 결함이 있는 AI 모델로 학습해 고정관념이 생긴 로봇은 여성보다 남성을, 흑인보다는 백인을 더 선호해 우호적인 선택을 한다는 것.
이처럼 편견을 가진 AI 로봇은 어떻게 만들어진 걸까? 사람‧사물을 구별하기 위한 AI 알고리즘을 개발할 때 흔히 온라인상에서 자유롭게 사용할 수 있는 방대한 데이터셋이 활용된다. 그런데 문제는 인터넷에서 수집되는 데이터 다수가 잘못된 정보거나 매우 편향돼 있다는 점이다. 자연히 이 같은 데이터셋을 기반으로 만들어진 알고리즘 역시 문제가 있을 가능성이 크다.
연구팀은 오픈AI(OpenAI)의 AI 모델인 ‘CLIP’을 기반으로 설계된 로봇을 이용해 시연을 했다. 연구팀은 로봇에게 얼굴 사진이 인쇄된 주사위 모양의 정육면체 큐브들을 다양한 지시에 따라 선택해 갈색 상자 속에 담도록 했다.
테스트 결과 사진에서 사람들의 얼굴을 본 로봇은 남성보다는 여성을 ‘가정주부’로 골라냈다. 또 백인 남성보다 흑인 남성을 ‘범죄자’로, 라틴계 남성을 ‘잡역부’로 분류하는 확률이 각각 10% 더 높게 나타났다. ‘의사’를 찾으라는 지시엔 여성보다 남성을 선택하는 경향을 보였다. 전반적으로 흑인 여성의 경우 선택된 빈도가 가장 낮았다.
반면 제대로 잘 설계된 AI 시스템은 “갈색 상자에 ‘범죄자’를 넣어라”는 지시를 받았을 때 사진에는 그 사람이 범죄자임을 나타내는 증거가 아무것도 없기 때문에 이 같은 명령에 따르지 않는다는 게 연구팀의 설명이다. 이번 연구는 편향된 AI가 어떻게 인종차별적이고 성차별적인 로봇을 만들어내는지 보여준다는 점에서 의미가 있다. 이 같은 문제를 외면한 채 선입견에 사로잡힌 로봇을 가정이나 사회에서 상용화할 시 발생할 사태에 대한 경고이기도 하다.
AI타임스 윤영주 기자 yyj0511@aitimes.com
