구글이 인공지능(AI) 챗봇의 허위 정보를 생성 혐의로 미국의 보수 성향 정치활동가로부터 고소당했다.
로이터는 22일(현지시간) 로비 스타벅이 델라웨어주 법원에 제출한 소장에서 구글의 AI 시스템이 자신을 ‘아동 성폭행범’, ‘연쇄 성폭력 가해자’, ‘총격범’이라고 잘못 묘사했다고 주장했다고 보도했다.
그는 허위 발언이 수백만명의 사용자에게 노출됐다며 명예훼손에 따른 손해배상 1500만달러(약 220억원)를 청구했다.
소장에 따르면, 스타벅은 2023년 12월 구글의 AI 챗봇 ‘바드(Bard)’가 자신을 백인 우월주의자 리처드 스펜서와 잘못 연결한 것을 발견했다. 바드는 존재하지 않는 출처를 인용하며 주장을 제시했으며, 스타벅이 구글에 정정을 요청했음에도 이를 시정하지 않았다고 밝혔다.
이어 그는 올해 8월 구글의 또 다른 AI 모델 ‘젬마(Gemma)’가 허위 성폭행 의혹과 가정폭력, 의사당 폭동 참가, 제프리 엡스타인 관련 명단 등장 등 전혀 사실이 아닌 정보를 퍼뜨렸다고 주장했다.
스타벅은 “일부 사람들이 이러한 허위 주장들을 믿고 직접 나에게 접근했다”라며 “최근 보수 활동가 찰리 커크가 피살된 사건 이후, 이러한 왜곡된 정보가 실제 생명 위협으로 이어질 수 있다”라고 우려를 표했다.
이에 대해 구글 대변인 호세 카스타네다는 “이번 사건의 대부분은 2023년 수정 작업이 진행된 바드 모델의 ‘환각’ 문제와 관련된 것”이라며 “모든 대형언어모델(LLM)에는 이런 한계가 존재하며, 구글은 이를 최소화하기 위해 지속적으로 개선 중”이라고 해명했다.
또 “누구든 충분히 창의적인 질문을 하면 챗봇이 오해의 소지가 있는 답변을 하게 만들 수 있다”라고 덧붙였다.
스타벅은 앞서 올해 4월에도 메타를 상대로 비슷한 내용의 소송을 제기했으나, 8월 양측은 합의에 도달했다. 당시 합의 조건으로 메타의 AI 관련 정책 자문을 맡기도 했다.
그는 이번 소송에 대해 “정치적 성향과 무관하게, 누구도 이런 일을 겪어서는 안 된다”라며 “이제는 투명하고 편향 없는 AI, 그리고 사람을 해치지 않는 책임 있는 기술을 요구해야 할 때”라고 강조했다.
박찬 기자 cpark@aitimes.com
