오픈AI는 23일(현지시간) 메타와 구글 등과 함께 생성 인공지능(AI) 기술을 통한 어린이 학대를 방지하기 위해 강력한 조치를 취하겠다는 공동 성명을 발표했다.
여기에는 아마존과 앤트로픽, 구글, 메타, 마이크로소프트, 미스트랄 AI, 스태빌리티 AI 등이 포함됐다. 또 성적 학대로부터 아동을 보호하는 비영리 단체 손(Thorn)과 기술과 사회 문제 해결에 집중하는 올 테크 이즈 휴먼(All Tech Is Human)이 주도했다.
오픈AI는 이를 위해 3단계로 조치를 취하겠다고 밝혔다.
우선 AI 개발 단계에서는 데어터셋에 포함된 CSAM(아동 성적 학대 자료) 및 CSEM(아동 성적 착취 자료)을 감지 및 제거하고, 확인된 CSAM을 관련 당국에 보고한다고 밝혔다.
이와 관련, 지난해 12월에는 스테이블 디퓨전을 학습한 데이터셋에 관련 자료가 포함된 것으로 알려지며, 소동이 일어났다. 당시 스태빌리티 AI는 별도 장치를 통해 이미지를 걸러냈다고 주장했다
오픈AI 등은 개발 프로세스와 피드백 루프에 반복적인 테스트를 실시, 문제의 소지를 미리 걷어내겠다고 덧붙였다.
두번째로 배포 단계에서는 생성 AI 모델에 아동 안전에 대한 교육과 평가를 거친 뒤 출시, 프로세스 전반에 대한 보호 장치를 마련하겠다고 밝혔다.
마지막으로 모델 출시 이후에도 악의적인 사용자가 생성한 관련 이미지를 모니터링하고 제거하겠다고 전했다.
오픈AI는 "이 약속은 아동 성적 피해를 생성하거나 확산시키기 위해 AI 기술을 오용하는 것을 방지하는 중요한 단계"라며 "실무 그룹의 일원으로서 우리는 매년 진행 상황 업데이트를 공개하기로 합의했다"라고 발표했다.
한편 최근 미국과 유럽 등에서는 일반 여학생의 딥페이크 이미지를 배포한 동급생들이 구속되는 등 문제가 벌어지고 있다.
첼시 칼슨 오픈AI 아동 안전 담당자는 "이런 집단적 행동은 아동 안전에 대한 우리의 공유된 접근 방식을 강조하고, 윤리적 혁신과 사회에서 가장 취약한 구성원의 복지에 대한 공동의 약속을 보여준다"라고 말했다.
임대준 기자 ydj@aitimes.com
