페이스북 (Facebook) & 인스타그램 (Instagram)에 올라오는 유해한 컨텐츠 바로 삭제하는 AI
유해 컨텐츠 올린 사람의 '표현의 자유 침해'라고 여겨질 수 있을지언정 완강히 대응할 예정

(AI타임스=김영하 기자) 최근 페이스북의 발표내용에 따르면 테러 동영상과 같은 불건전 컨텐츠를 실시간으로 찾아내는 '페이스북 AI 소프트웨어'가 많은 기능 향상을 이뤄냈다고 밝혔다.

Facebook & Instagram 로고 (사진=Shutterstock)
Facebook & Instagram 로고 (사진=Shutterstock)

마크 저커버그 (Mark Zuckerberg) 페이스북 CEO는 최근 페이스북 정책을 위반한 사항에 대해 '페이스북 AI 소프트웨어'가 제제한 사례를 발표하며 "개인 표현의 자유를 침해한다고 보여질 수도 있지만, 개인과 사회에 피해를 줄 수 있다고 여겨지는 포스트는 절대 용납하지 않는다"며 유해 컨텐츠 차단에 대한 강한 의지를 나타냈다. 유해 컨텐츠가 페이스북을 비롯한 인스타그램에 자주 나타나지는 않지만, 다른 누군가 그 컨텐츠를 확인하기 전에 먼저 제거할 것이라고 했다.

페이스북은 인공지능(AI)에 집중 투자해 유해 컨텐츠를 페이스북 사용자들이 보기 전에 자동으로 찾아내는 프로세스를 구축하고 있다. 해당 AI와 관련된 페이스북 ‘안전 보안 (Safety and Security)’팀 에는 35,000명이 근무하고 있는데 이를 매년 수십억 달러가 지출되고 있다. 이에 대하여 저커버그는 투자한 금액대비 가시적인 성과를 계속 확인하고 있으며 특히 유해 컨텐츠를 제거하기 위해 구축된 시스템은 상당히 발전되어 있다고 평했다. 일례로 혐오 발언 탐지하는 페이스북 AI 소프트웨어는 2년전과 비교하여 많은 기능향상이 되어 혐오발언의 80%를 자동으로 찾아내어 삭제했다고 한다.

 

유해 영상보다 찾기 힘든 ‘글로 만들어진 유해 컨텐츠’

평범하다고 여겨지는 단어가 문장으로 만들어 졌을 때, 어떤 문장에 어떤 식으로 사용되었는지에 따라 유해한 컨텐츠 혹은 유익한 컨텐츠가 될 수 있다. 이 같은 연유로 저커버그는 혐오발언 관련 AI 시스템 구축하는 것은 비디오나 영상의 유해 컨텐츠를 찾는 것 보다 훨씬 힘들다고 밝혔다.

페이스북에서는 혐오성 혹은 유해성을 지낸 동영상을 업로드를 지속적으로 금지하고 있다. 일례로 지난 3월 페이스북에서 실시간 중계되었던 뉴질랜드 크라이스트처치의 이슬람 사원 총격사건 동영상의 경우 사건 발생 후 24시간 만에 이 동영상 150만 개를 삭제하고 120만 개는 업로드되는 것을 막았다고 밝힌 바 있다. 또한 테러집단이 페이스북 사용하는 것을 막기 위해 350여명의 테러 전문가를 확보하고 있다고 한다.

이와 같은 유해 컨텐츠를 찾아 삭제하는 시스템은 페이스북 소유의 이미지 및 동영상 공유 서비스 플랫폼인 인스타그램에서 자살이나 자해를 조장할 수 있는 이미지 및 동영상에 제재를 가하기 위하여 도입되기도 했다. 비록 개인 표현의 자유는 침해할지언정 사회에 유해한 컨텐츠는 절대적으로 막는다는 소설 네트워크 서비스의 최강자 '페이스북'. 이들의 AI 시스템이 과연 언제쯤 유해컨텐츠를 100% 막아낼지 주목되고 있다.

【에이아이타임스 aitimes 에이아이타임즈】