현상금을 걸고 인공지능(AI)의 편견을 찾아내는 도구를 개발하는 대회가 열린다.
MIT테크놀로지리뷰는 20일(현지시간) 편견해커(Bias Buccaneers)라는 자원봉사 전문가 그룹이 20일부터 다음달 30일까지 총 상금 1만2000달러를 내걸고 AI가 만들어 낸 편향된 이미지를 감지하는 도구를 개발하는 대회를 개최한다고 보도했다.
편견해커는 트위터,스플렁크, 리얼리티 디펜더 등에서 근무하는 기계학습 및 AI 전문가로 구성된 조직이다.
이번 현상금 경쟁은 편향된 이미지를 찾아내는 데 중점을 둘 예정이다. 흑인을 고릴라로 인식했던 과거 AI 이미지 감지 시스템의 사례 처럼 AI가 이미지를 처리하는 과정에서 작동하는 편견을 찾아내기 위한 것이다. 사이버보안 업계에서 버그를 찾아내기 위해 현상금을 건 대회를 여는 것에 착안했다.
대회 참가자는 주최측이 제시한 1만5000개의 AI로 합성된 인물 이미지에 대해 피부색과 성별, 연령에 따른 그룹으로 라벨을 지정하는 기계 학습 모델을 구축해야 한다. 이렇게 하면 데이터 세트에서 편향성을 더 쉽게 측정하고 발견할 수 있다. 제출된 모델은 실행 시간 등의 기준에 따라 순위가 매겨진다.
우승자에게는 6000달러의 현상금을 지급한다. 2위와 3위에도 각각 4000달러와 2000달러의 현상금을 제공한다. 상금은 마이크로소프트와 스타트업 로버스트 인텔리전스가 내기로 했다. 아마존도 대회에 5000달러를 기부했다.
대회 개최 취지는 AI 편향성에 대한 감시와 감사의 필요성이 높아지고 있지만 막상 전문 인력이나 회사가 많지 않은데 따라 관련 전문가를 널리 발굴하는 것이다.
트위터가 지난해 처음으로 이런 현상금 경쟁 방식의 대회를 열었고 미 스탠퍼드 대학교는 AI 감사 챌린지를 개최했다. 비영리 기관인 모질라는 AI 감사 도구를 개발중이기도 하다.
AI의 공정성 확보를 위한 감사는 갈수록 보편화될 전망이다. 유럽연합(EU)이 도입하기로 확정한 디지털시장법은 거대 기술기업들이 사용하는 데이터와 알고리즘에 대해 매년 공정성 감사를 하도록 규정하고 있다. 또 별도 제정이 추진되고 있는 EU의 AI법도 규제 당국에 AI시스템을 감사할 권한을 부여할 가능성이 높다.
문제는 늘어나는 감사 수요를 감당할 전문 인력이 충분하지 않고 기업들은 시스템에 대한 감사 목적의 접근을 꺼린다는 점이다.
편견해커의 루만 초우더리 대표는 "우리는 AI 감사업무에 관심이 있고 거대기술 회사에 몸 담고 있지 않은 전문가들을 위해 제3의 영역을 만들기 위해 노력하고 있다"면서 "해커나 데이터 과학자들이 이런 전문가에 해당될 수 있을 것"이라고 설명했다.
정병일 위원 jbi@aitimes.com
