구글이 검색 결과에서 합의되지 않은 딥페이크 포르노의 노출을 강력하게 단속하겠다고 발표했다. 이는 지난 7월에 이어 5개월여 만에 관련 조치를 강화한 것으로, 그만큼 이 문제가 중요한 이슈로 떠올랐다는 것을 의미한다.
구글은 2일(현지시간) 블로그 게시물을 통해 비 합의적인 딥페이크 포르노를 줄이기 위한 추가 조치를 발표했다,
여기에는 AI 생성 콘텐츠에 실제 사람의 얼굴이나 신체가 허가 없이 등장하는 경우, 해당인은 검색 결과에서 삭제를 요청할 수 있다는 내용이 포함됐다.
또 구글은 삭제가 필요하다고 판단하면 유사한 검색에서 모든 노골적인 결과를 필터링하고 중복된 이미지를 삭제한다. 더불어 노골적인 가짜 콘텐츠가 최상위 결과로 나타나지 않도록 검색 순위 시스템을 개선했다고 밝혔다.
에마 하이엄 구글 제품 관리자는 "우리는 오랫동안 사람들이 검색에서 이 콘텐츠를 발견하면 제거할 수 있는 정책을 가지고 있었다"라며 "하지만 우리는 현재 기술 변화의 한가운데에 있고, 모든 기술 변화와 마찬가지로 새로운 남용을 목격하고 있다"라고 말했다. 즉, 몇개월 전과는 상황이 달라졌다는 말이다.
구글은 특정인의 이름과 관련된 딥페이크 콘텐츠를 찾는 쿼리에 대한 결과를 조정해 왔다. 따라서 이런 검색어가 등장하면 이미지를 보여주는 대신, 관련 뉴스 기사를 보여주도록 검색 엔진을 훈련할 것이라고 밝혔다. 이로 인해 이미지 노출이 70% 이상 감속했다고 덧붙였다.
하지만 노골적인 콘텐츠를 검색 결과에서 완전히 삭제하는 대신, 검색 결과에서 순위를 낮춘다고 밝혔다.
이에 대해 하이엄 관리자는 "우리는 일부 성인 배우와 같이 합의된 콘텐츠가 검색에서 배제되는 등 의도치 않은 결과를 초래하지 않도록 주의해야 한다"라고 설명했다.
"하지만 고위험 쿼리와 합의되지 않은 가짜 노골적인 콘텐츠가 나타날 위험이 높을 때는 강력한 조치를 취하고 있다"라고 덧붙였다.
강두원 기자 kdw@aitimes.com
