월드컵에서 인종차별 등 폭언을 소셜 미디어에 남긴 300여명이 사법 당국에 고발될 위기에 처했다.
ESPN은 18일(현지시간) 국제축구연맹(FIFA)이 인공지능(AI)을 사용해 2022년 카타르 월드컵 기간 도중 선수를 겨냥한 소셜 미디어 남용 사례를 모니터링 및 차단하고 그중 300여명의 세부 정보를 법 집행 기관에 제공할 예정이라고 보도했다.
이에 따르면 FIFA와 국제축구선수협회(FIFPRO)는 AI를 사용해 트위터와 인스타그램, 페이스북, 틱톡, 유튜브 등에서 달린 "학대적이고 차별적이며 위협적인 게시물이나 댓글"을 식별, 차단했다는 내용의 보고서를 발표했다.
보고서는 "대회가 진행됨에 따라 폭력과 위협이 더욱 극심해졌다"며 "선수들의 가족이 많이 언급된 것은 물론 선수들이 대회 이후 특정 국가나 리그로 돌아갈 경우 가만히 두지 않겠다는 위협도 늘었다"고 밝혔다.
약 2000만개의 게시물과 댓글을 스캔한 결과 1만9000개 이상이 문제로 나타났다. 그 중 FIFA는 사법 당국의 고발을 위해 1만3000여건을 트위터에 신고해 신원을 파악했다. 문제의 글 중 38%는 유럽, 36%는 남미에서 작성한 것으로 나타났다.
대회 기간 중 FIFA는 AI 도구를 팀과 선수에 제공, 28만6000개 이상의 문제 글을 미리 삭제헸다.
FIFA는 "욕설 게시자로 확인된 300명 이상의 신원을 각 국의 축구협회(FA) 및 사법 당국에 전달, 실제 조치를 도울 것"이라고 밝혔다.
잔니 인판티노 FIFA 회장은 성명을 통해 “차별은 범죄 행위"라며 "우리는 소셜 미디어 플랫폼이 그들의 책임을 받아들이고 모든 형태의 차별과의 싸움에서 우리를 지원하기를 기대한다"고 말했다.
또 데이비드 아간조 FIFPRO 회장은 "이 보고서의 수치와 조사 결과는 놀라운 것이 아니지만, 여전히 크게 우려할 수준"이라고 말했습니다.
FIFA와 FIFPRO는 다음 달 호주와 뉴질랜드에서 시작되는 여자 월드컵에서도 AI 시스템을 활용할 예정이다.
강두원 기자 ainews@aitimes.com
