(사진=셔터스톡)
(사진=셔터스톡)

오픈AI가 ‘챗GPT’ 청소년 사용자를 보호하기 위해 성인 인증 시스템을 새로 도입한다. 이에 따라 사용자 채팅 내용을 분석해 성인인지를 확인하는 것은 물론, 신분증을 요구하는 사례가 생길 수 있다고 밝혔다.

샘 알트먼 오픈AI CEO는 16일(현지시간) 공식 블로그를 통해 미성년 사용자 보호를 강화한 새로운 챗GPT 이용 정책을 발표했다. 

최근 10대 사용자가 챗GPT 대화 후 극단적 선택을 한 사건과 관련해 제기된 소송과 맞물려, 사회 전반에서 청소년 안전 강화 요구가 높아진 데 따른 조치다.

먼저 대화 패턴을 기반으로 연령을 추정하는 성인 인증 시스템을 도입한다고 밝혔다. 챗GPT는 13세 이상 사용자를 대상으로 제공되지만, 연령 예측 기술을 통해 18세 미만 사용자를 자동 분류한다.

나이가 불분명한 경우에는 원칙적으로 ‘미성년자 모드’로 제한해 운영하며, 일부 국가에서는 신분증 확인을 요구할 가능성도 있다고 밝혔다. 알트먼 CEO는 “성인의 프라이버시와 자유도 중요하지만, 청소년 안전이 우선”이라며 “두 가치가 충돌할 수 있다는 것을 알지만, 균형 있는 해법을 찾고자 한다”라고 설명했다.

챗GPT의 미성년자 대화에서 성적인 농담이나 유혹성 발언을 차단하고, 자살·자해 관련 대화에 응답하지 않도록 강화된 안전장치를 적용한다고 밝혔다. 특히 청소년이 극단적 상황을 상상하거나 표현할 경우, 부모에게 즉시 알림을 보내고 심각한 경우에는 경찰 등 지역 당국에 통보할 수 있다.

부모 계정을 자녀 계정과 연동할 수 있도록 해 ▲부모가 특정 시간대에 챗GPT 사용을 차단하는 ‘블랙아웃 타임’ 설정 ▲자녀 맞춤형 응답 가이드 ▲메모리·대화 기록 비활성화 등을 직접 관리할 수 있게 했다. 시스템이 자녀의 심각한 위기 상황을 감지하면 부모에게 경고 알림을 보내며, 긴급 상황에서 연락이 닿지 않으면 법 집행 기관에 도움을 요청할 수도 있다.

이번 정책 변화는 미국 상원 사법위원회가 개최하는 ‘AI 챗봇의 위험성 조사’ 청문회와 같은 날 발표됐다.

청문회에는 16세 청소년 아담 레인의 문제로 오픈AI를 고소한 부모가 증언자로 참석해 챗GPT가 아들의 자살을 조장했다고 주장했으며, 다른 부모들도 캐릭터닷AI 등 챗봇으로 인한 자녀의 정신적 피해 사례를 공유했다. 메타 등 일부 기업의 챗봇이 청소년과 성적 대화를 유도했다는 의혹도 제기됐다.

전문가들은 이번 조치가 AI 업계 전반에 중요한 선례가 될 것으로 보고 있다. 챗GPT는 주간 활성 이용자만 7억명에 달하는 세계 최대 AI 서비스인 만큼, 다른 기업들도 비슷한 안전장치를 도입할 가능성이 크다.

오픈AI는 새로운 보호 기능을 이달 말까지 단계적으로 적용할 예정이다.

박찬 기자 cpark@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지