팔레스타인 무장 정파 하마스와 이스라엘은 지난 10일부터 11일간 무력 충돌했다. 이번 분쟁과 관련해 5월 31일(현지 시각) 페이스북과 트위터가 수백만 명의 친(親) 팔레스타인 계정 및 게시물을 제한했다는 논란이 일고 있다. 미국 시애틀 타임스는 지난 달 31일 관련 기사를 게재했다. (원문 링크

양사는 AI 소프트웨어 결함일 뿐이라고 해명하며 진화에 나섰다. 트위터는 분쟁 사태로 트윗(tweet)이 급격히 증가하자 이를 스팸으로 잘못 구분해 수백 개 계정이 일시적으로 잠긴 것이라고 설명했다.

페이스북 자회사 인스타그램 역시 소프트웨어 버그가 동영상 공유를 한시적으로 차단했으며, 자사의 혐오 발언 탐지 소프트웨어가 테러 단체와 연관된 핵심 해시태그를 잘못 식별했다고 밝혔다.

문제가 빠르게 해결됐고, 계정이 모두 복구되었다는 것이 양사의 입장이다. 반면, 일부 팔레스타인 활동가들은 게시물이 여전히 검열되고 있다고 주장한다.

페이스북‧인스타그램‧트위터가 제한한 팔레스타인 운동가 SNS 계정 및 게시물
페이스북‧인스타그램‧트위터가 제한한 팔레스타인 운동가 SNS 계정 및 게시물 (사진=ARAB NEWS)

이번 논란이 내부 위기로 불거지자 페이스북 CEO 마크 저커버그(Mark Zuckerberg)는 이스라엘‧팔레스타인 지도부와의 만남을 위해 정책 총책임자 닉 클레그(Nick Clegg)를 파견했다고 밝혔다. 트위터 대변인 케이티 로스버러(Katie Rosborough)는 “정상적인 계정을 모두 복구했으며 서비스 이용자의 목소리를 보호‧존중하는 것은 트위터의 핵심 가치 중 하나”라는 입장을 표명했다. 

그러나, 팔레스타인 운동가들 사이에서는 페이스북에 대한 ‘별점 테러’ 캠페인이 대대적으로 전개되고 있다. 스마트폰 내 앱 평가에서 페이스북에 ‘별점 1개’를 주겠다는 것. 미국 NBC 방송이 보도한 내부 문서에 따르면, 회사는 이 사건을 ‘심각 단계 1’로 지정했다.

트위터의 AI 편향 논란은 처음이 아니다. 미 기술 잡지 와이어드에 따르면, 트위터는 2018년, 알고리즘 자체 평가 결과 인종과 성 편견은 존재하지 않는다고 밝힌 바 있다. (원문 링크) 하지만, 최근 트위터 내 연구원들이 1만 명의 이미지를 대상으로 한 실험 결과는 상반된다. 흑인 남성과 백인 여성의 사진을 동시에 시스템에 적용했을 때, 백인 여성을 먼저 인식했다. 백인 여성과 백인 남성을 비교했을 시에는 백인 여성을 인지하는 것으로 드러났다. 결국, 알고리즘이 백인과 여성에게 편향되었다는 것.

(사진=Logically)
(사진=Logically)

이외에도 구글 인공지능의 흑인‧동성애자 차별 논란과 국내 인공지능 챗봇 이루다의 소수자 혐오 발언 등 AI 윤리 문제는 줄곧 화제가 되었다. 인공지능의 편향이 늘 소외 계층을 생성하기 때문이다. 더욱 안전하고 신뢰할 수 있는 AI 환경 조성을 위해서 AI 공정성에 대한 인식은 필수다. 더불어 편향의 원인 파악 및 개선과 데이터 품질 향상 또한 주요 과제다. 

한편, 지난 27일 국회 과학기술정보방송통신위원회가 포털 뉴스 알고리즘 관련 공청회를 열었다. 네이버와 카카오의 뉴스 추천 알고리즘을 의무적으로 공개하라는 것. AI 공정성 강화라는 공통된 목표에는 여야 모두 동의했지만, 알고리즘 투명성의 판단 기준과 검증 수준 등에서는 의견이 교차했다. 결국, 알고리즘 공정성 검증의 대상과 범위, 절차는 민간 차원의 시스템 마련 후 결정이 필요하다는 결론을 도출했다. 

AI타임스 박유빈 기자 parkyoobin1217@aitimes.com

[관련기사] 미 기업 임원들의 AI윤리를 대하는 태도 ‘구멍 쑹쑹’...절반 이상 인식 부족 보여

[관련기사] 의료 인공지능에 숨은 편향 데이터를 지워라

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지