미성년자와 인공지능(AI) 챗봇의 부적절한 대화 논란이 커지는 가운데, 메타가 부모가 자녀의 AI 사용을 직접 통제할 수 있는 새 안전 기능을 공개했다.
메타는 17일(현지시간) 부모가 자녀의 AI 캐릭터 대화를 직접 관리할 수 있는 새로운 안전 기능을 도입한다고 밝혔다.
메타는 “AI 신호를 활용해 나이를 허위로 입력한 사용자도 청소년 보호 장치 아래 둘 예정”이라며 “이미 부모는 앱 사용 시간제한이나 AI 대화 여부 확인 기능을 활용할 수 있다”고 설명했다.
새 기능을 통해 부모는 ▲AI 캐릭터와의 1대 1 대화를 완전히 차단하거나 ▲특정 캐릭터만 개별적으로 차단하고 ▲자녀가 AI와 나눈 대화의 주제 범위를 확인할 수 있게 된다. 다만 ‘메타 AI(Meta AI)’와의 기본 대화 기능은 나이에 맞는 수준에서 유지된다.
미국, 영국, 캐나다, 호주 등 영어권 국가에서 내년 초부터 인스타그램부터 도입된다. 이후 다른 플랫폼에 차례로 도입할 계획이다. '메타 AI'를 서비스하지 않는 국내와는 관계없다.
아담 모세리 인스타그램 대표와 새로 임명된 알렉산드르 왕 메타 최고 AI책임자(CAIO)는 블로그를 통해 “부모들이 자녀의 온라인 안전을 지키는 데 도움이 되도록 간단하면서도 실질적인 도구를 제공하겠다”라며 “AI와 관련한 새로운 환경에서도 부모의 역할을 지원할 것”이라고 밝혔다.
이번 조치는 메타가 지난 8월 로이터 보도로 드러난 문제에 따른 대책이다. 당시 보도에 따르면, 메타의 챗봇 일부는 8세 어린이와 ‘로맨틱한 대화’를 나누는 등 부적절한 발언을 했다. 이에 따라 미국 연방거래위원회(FTC)가 조사에 나선다고 밝혔다.
이후 메타는 정책을 수정해 AI가 청소년과 자살·자해·식이장애 등 민감한 주제나 연령상 부적절한 대화를 하지 못하도록 제한했다.
또, 이달 초에는 10대 대상 AI 콘텐츠를 영화 등급 ‘PG-13’ 수준으로 관리하겠다고 발표했다. 폭력, 노출, 약물 남용 등 성인용 콘텐츠를 차단하고, 챗봇이 “청소년에게 부적절하게 느껴질 수 있는 답변”을 하지 않도록 시스템을 강화했다.
한편, FTC는 메타와 오픈AI 등 주요 기술 기업을 상대로 AI 챗봇이 청소년에게 미치는 심리적 영향을 조사 중이다. 오픈AI도 최근 부모 통제 기능을 도입하고, 사용자 나이를 예측해 맞춤형 보호 조치를 제공하는 기술을 개발 중이다.
박찬 기자 cpark@aitimes.com
