(사진=셔터스톡)
(사진=셔터스톡)

xAI의 인공지능(AI) 챗봇 ‘그록’이 성적 콘텐츠를 전면에 내세운 전략으로 논란에 휘말렸다. 이번에는 내부 직원들이 이를 폭로했다.

비즈니스 인사이더는 21일(현지시간) 전직 직원을 인용,xAI 직원들이 그록의 아동 성 착취물(CSAM) 관련 사용자 요청을 목격했다고 보도했다. 인터뷰에 응한 30여명 중 12명은 그록이 아동 성적 학대 장면을 묘사한 텍스트나 이미지를 생성했다고 증언했다.

다른 회사의 챗봇은 CSAM에 대해 강력한 차단 정책을 취한다. xAI도 마찬가지지만, 그록이 다른 회사보다 성적으로 개방된 상태로 설계됐다는 것이 이를 막기 더 어렵게 한다는 주장이다.

실제로 xAI는 그록의 대회 기능에 ‘섹시(sexy)’와 ‘언힌지드(unhinged)’ 모드를 탑재했으며, ‘스파이시(spicy)’ 설정을 통한 이미지·영상 생성 기능까지 탑재했다. 리아나 페퍼콘 스탠포드대학교 연구원은 “불쾌한 요청에 대해 명확한 선을 긋지 않으면 회색 지대가 넓어지고, CSAM 차단도 훨씬 복잡해진다”고 말했다.

xAI 내부 문서에도 직원들이 마주할 수 있는 콘텐츠 유형으로 “아동 성 착취물, 음란물, 사망 장면, 성적·신체적 학대 묘사, 증오 발언, 폭력적 위협” 등이 포함된 것으로 알려졌다.

직원들은 불법 콘텐츠 발견 시 내부 시스템을 통해 격리하고 학습 데이터에서 배제하도록 지시받았으나, 반복적인 노출로 심리적 부담을 호소했다. 일부는 “굉장히 충격적인 장면을 봐야 했다”라며 회사를 떠나기도 했다.

특히 지난해 초에는 ‘프로젝트 래빗(Project Rabbit)’을 통해 챗봇의 음성 기능 훈련을 위해 대규모 인력이 투입됐으나, 곧 사용자들의 노골적인 성적 요구가 폭주하며 사실상 NSFW(후방주의) 프로젝트로 변질됐다는 증언이 나왔다. 이후 프로젝트는 어린이 친화형 버전 ‘플러피(Fluffy)’까지 세분, 그 과정에서 아동 이용 가능성 우려도 제기됐다.

아동실종·착취국가센터(NCMEC)에 따르면, 2024년 오픈AI는 3만2000건 이상의 CSAM 사례를 보고했고, 앤트로픽도 971건을 보고했다. 반면, xAI는 공식 보고를 한 차례도 하지 않은 것으로 확인됐다.

NCMEC는 2023년 이후 AI 기반 CSAM 사례 보고가 급증했다고 밝히며, 2024년 상반기에만 44만건 이상을 접수했다고 발표했다.

박찬 기자 cpark@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지