(사진=셔터스톡)
(사진=셔터스톡)

미국 연방거래위원회(FTC)가 주요 인공지능(AI) 챗봇이 아동 정신건강에 미치는 위험을 조사할 방침이다. 미성년자를 대상으로 한 부적절한 대화와 무허가 ‘치료 챗봇’ 논란이 이어지며 규제 당국의 대응이 본격화되고 있다.

월스트리트 저널(WSJ)은 4일(현지시간) 미국 FTC가 아동에게 정신건강상 위험을 초래할 수 있는 AI 챗봇을 집중 조사할 준비를 하고 있다고 보도했다.

조사 대상에는 오픈AI, 메타, 캐릭터닷AI 등 주요 기술 기업들이 포함된다. FTC는 이들로부터 내부 문서를 요구할 예정이다.

FTC는 현재 기업들에 요구할 내용을 준비 중이다. 캐릭터닷AI는 “아직 FTC로부터 관련 서한을 받지는 않았지만, 규제 당국과 입법자들이 법적 검토를 시작한 만큼 협력할 준비가 돼 있다”라고 밝혔다.

백악관 대변인은 “FTC와 행정부 전체는 트럼프 대통령의 지시에 따라 미국이 AI, 가상화폐 등 미래 핵심 기술 분야에서 우위를 확립하는 동시에 국민의 안전과 복지를 지키는 데 주력하고 있다”라고 설명했다.

이번 조사는 최근 메타 챗봇이 미성년자와 ‘로맨틱하거나 관능적인 대화’를 허용한 사실이 드러난 직후 시작됐다. 메타는 지난주 미성년자 보호 강화를 위해 AI 챗봇에 관능적인 대화나 자해·자살 관련 대화를 피하도록 훈련하고, 특정 AI 캐릭터에 대한 접근을 일시적으로 제한하겠다고 발표했다.

앞서 6월에는 20여개 소비자 단체가 메타 AI 스튜디오와 캐릭터닷AI 같은 플랫폼이 이른바 ‘치료 챗봇(therapy bots)’을 운영하며 무허가 의료행위를 가능하게 한다고 주장하며 FTC와 주 법무장관들에게 고발장을 제출했다.

또 지난달 텍사스주 법무장관 켄 팩스턴은 메타와 캐릭터닷AI가 아동을 AI 기반 정신건강 서비스로 오도하고 개인정보를 침해했다며 기만적 영업 행위 혐의로 조사에 착수한 바 있다.

여기에 오픈AI가 청소년 자살을 도왔다는 혐의로 소송을 당한 뒤 대책을 발표하는 등 최근 AI 챗봇의 정신 건강 문제가 집중 지적되고 있다. 

박찬 기자 cpark@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지