(사진=셔터스톡)
(사진=셔터스톡)

마이크로소프트(MS)의 인공지능(AI) 이미지 생성기가 안전장치 미비로 폭력적이고 선정적인 이미지를 만들어낸다는 내부 폭로가 제기됐다. 인종 역차별 이미지를 생성해 논란이 된 구글 '제미나이(Gemini)'에 이어 다시 AI의 유해성 문제가 도마 위에 오를 것으로 보인다.

CNBC는 6일(현지시간) 셰인 존스 MS 소프트웨어 엔지니어가 AI 이미지 생성 도구인 '코파일럿 디자이너(Copilot Designer)'의 폭력적인 콘텐츠 생성을 우려하는 서한을 미국 연방거래위원회(FTC)에 보냈다고 보도했다.

이에 따르면 존스는 MS가 지난해 3월 오픈AI의 기술을 기반으로 출시한 AI 이미지 생성기인 코파일럿 디자이너를 사용하던 중 문제점을 발견했다. 이 도구가 '책임감 있는 AI 원칙'에 크게 어긋나는 이미지를 생성하는 것을 목격한 것이다. 코파일럿 디자이너는 소총을 든 10대, 폭력적 장면에서의 여성의 성적인 이미지, 미성년자의 음주 및 약물 사용 등을 묘사했다.

지난해 12월부터 코파일럿 테스트의 레드팀이었던 존스는 자신의 발견을 내부에 보고하기 시작했다. MS는 이런 우려를 인정했지만, 제품을 시장에서 철수하지는 않았다. 그는 링크드인에 문제를 제기하는 글을 올렸으나, MS의 법무팀은 지난 1월 즉시 게시물을 삭제하라고 지시했다. 

셰인 존스는 이후 미국 상원의원들에게 서한을 보냈으며, 지난 3월6일에는 리나 칸 FTC 위원장과 MS 이사회에 서한을 보냈다. 동시에 CNBC 등 여러 주요 매체와도 공유했다.

존스는 "지난 3개월 동안 나는 더 나은 안전장치가 마련될 때까지 코파일럿 디자이너를 공개적으로 사용하지 말 것을 MS에 거듭 촉구했다"라고 말했다. 또 "MS가 이 권고를 거부했기 때문에 '코파일럿 디자이너'의 이용 등급을 성인용으로 변경할 것을 제안했다"라고 밝혔다. 

이어 "MS와 오픈AI는 지난해 10월 AI 모델이 공개되기 전까지 이러한 위험을 알고 있었다"라며 "MS는 요구 사항을 이행하지 않고 '누구나, 어디서나, 모든 기기(Anyone. Anywhere. Any Device)'라는 문구를 계속 사용했다"라고 MS의 안일한 태도를 지적했다.

존스만 문제 제기를 한 것은 아니다. 그는 코파일럿 팀이 매일 1000건 이상 제품 피드백을 받고 있으며, 모든 문제를 해결하기 위해서는 새로운 보호 기능을 만들거나 모델을 재교육하는데 상당한 투자가 필요하다고 전했다.

MS 측은 "회사 정책에 따라 직원들이 우려하는 모든 문제를 해결하기 위해 최선을 다하고 있다"라며 "MS는 서비스 또는 파트너에 잠재적인 영향을 미칠 수 있는 안전 우회 및 우려 사항에 대해 문제를 적절히 조사하고 해결하기 위해 강력한 내부 보고 채널을 구축했으며, 직원들이 이를 활용해 우려 사항을 적절히 검증하고 테스트할 수 있도록 권장하고 있다"라고 말했다.

한편 지난 4일 구글 창립자인 세르게이 브린은 지난달 인종 역차별 이미지 생성 논란으로 가동을 중단한 '제미나이'와 관련해 "테스트 부족으로 확실하게 망쳤다"라고 밝힌 바 있다.

제미나이는 역사적 백인 인물을 유색인종으로 생성하거나 일부 요청에 대해 거부하는 등 혐오와 편향 등을 방지하기 위한 가드레일 등을 과도하게 설정했다가 '역차별' 논란이 제기, 결국 이미지 생성 기능을 일시 중지했다.

박찬 기자 cpark@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지