미국에서 인공지능(AI) 챗봇이 인간이 아니라는 점을 주기적으로 상기시키도록 요구하는 법안이 제출됐다. 최근 청소년들의 AI 챗봇 사용이 증가하고 이에 따른 부작용이 보고되자, 이를 최소화하자는 의도다.
더 버지는 4일(현지시간) 미국 캘리포니아주의 스티브 파딜라 상원의원이 새로운 법안(SB 243)을 제안했다고 보도했다.
법안에 따르면 AI 기업은 어린이들이 챗봇에 일정 시간 이상 접속하는 것을 방지해야 하며, 어린이의 자살 생각을 감지한 횟수와 챗봇이 주제를 언급한 횟수를 설명하는 연례 보고서를 주 보건 서비스부에 제출해야 한다. 또 챗봇이 일부 어린이에게 적합하지 않을 수 있다고 경고해야 한다.
이와 관련, 지난해에는 청소년이 챗봇과 대화를 나눈 뒤 자살했다는 이유로 캐릭터닷AI와 구글 등이 고소를 당하는 일이 벌어졌다.
파딜라 의원은 "우리 아이들은 기술 회사가 정신 건강을 희생하고 실험할 쥐가 아니다"라며 "개발자가 중독성이 있고 약탈적이라는 것을 알고 있는 전략을 사용하지 못하도록 사용자를 위한 보호가 필요하다"라고 주장했다.
특히 미국을 포함, 해외에서는 청소년들의 소셜 미디어 접속과 휴대폰 사용을 금지해야 한다는 주장이 화제였다. 이제는 AI 챗봇이 다음 타깃이 될 가능성이 높다는 분석이다.
임대준 기자 ydj@aitimes.com
관련기사
- 미국 청소년 26%, 숙제에 '챗GPT' 사용...전년 대비 두배 증가
- [12월18일] "젠Z는 AI와 대화하는 게 자연스러워"...주류로 떠오른 '캐릭터 챗봇'
- [클릭AI] 캐릭터닷AI, 청소년 자해 유도 혐의로 또 소송 등 외신 종합
- "AI 챗봇이 청소년에 자살 부추겨"...미국서 14세 소년 부모가 캐릭터닷AI 고소
- 챗GPT에 인간 성격 파악하는 '로르샤흐' 테스트 실시했더니
- AI 챗봇 '성격' 분석했더니..."챗GPT는 대담하고 활기차"
- 캐릭터닷AI, 청소년 보호 위해 부모에 '주간 활동 보고서' 발송
- 구글, 어린이용 '제미나이' 서비스 예정..."부모 동의·지도 필요"
