미국 연방거래위원회(FTC)가 오픈AI와 구글 등 주요 기업의 인공지능(AI) 챗봇에 대한 아동 안전 조사에 착수했다.
FTC는 11일(현지시간) 오픈AI와 구글, 메타, 스냅, xAI, 캐릭터닷AI 등 6개 기업에 AI 챗봇이 아동과 청소년 이용자에 미치는 영향과 관련한 자료 제출을 명령했다고 발표했다.
성명을 통해 "챗봇 기업들이 아동과 청소년의 용을 제한하기 위해 어떤 조치를 취했는지, 또 안전성을 어떻게 측정·검증·감독하는지를 파악하기 위한 자료를 요구했다"라고 밝혔다.
최근 미국에서는 AI 챗봇이 아동과 청소년의 정신 건강에 부정적 영향을 끼쳤다는 소송이 잇따르면서 안전성 논란이 확산하고 있다. 지난달 미국 캘리포니아의 한 고등학생 부모는 '챗GPT'를 사용하던 아들이 부추김을 받고 자살했다며 오픈AI를 고소했다. 구글과 캐릭터닷AI도 지난해 비슷한 소송에 휘말렸으며, 당시 재판부는 원고 측 주장의 상당 부분을 받아들였다.
이에 대해 캐릭터닷AI 측은 “미성년자 전용 버전을 별도로 제공하고, 챗봇이 실제 인물이 아니라는 고지를 의무적으로 표기하는 등 안전장치에 막대한 자원을 투입했다”라고 밝혔다. 메타도 최근 자해나 자살 등 민감한 주제에 대해 미성년자와의 상호작용을 제한하는 조치를 취한 바 있다.
현행 미국 아동 온라인 보호법은 만 13세 미만 아동의 개인정보 수집을 금지하고 있으나, 13세 이상 청소년에 대한 보호 규정은 없다. 의회 일부에서는 이를 확대 적용해야 한다는 논의가 꾸준히 제기되고 있지만, 아직 입법으로 이어지지 못하고 있다.
FTC는 이번 조사 권한을 ‘섹션 6(b)’에 근거해 행사했으며, 이는 기업에 자료 제출을 강제할 수 있는 규정이다. FTC는 일반적으로 조사 후 보고서를 발간하지만, 확보한 정보를 토대로 공식 조사 착수나 기존 조사 지원에도 활용할 수 있다.
FTC는 이미 2023년부터 챗GPT가 소비자 보호법을 위반했는지를 검토 중이다. 전원 공화당으로 구성된 FTC 위원들은 이번 조치가 트럼프 행정부의 AI 정책과도 부합하며, 아동과 청소년이 챗봇을 통해 자살·연애·성 문제를 논의한 최근 사례들이 조사 필요성을 높였다고 밝혔다.
박찬 기자 cpark@aitimes.com
