마이크로소프트(MS)가 인공지능(AI) 제품의 안전성을 보장하기 위한 전담팀 규모를 확대했다. 이 팀은 책임감 있는 AI 서비스의 제공을 위해 AI가 생성한 콘텐츠의 유해성을 점검하는 역할을 한다.
블룸버그는 1일(현지시간) MS가 AI 제품 안전성 보장 팀을 지난해 350명 규모에서 올해 400명으로 늘렸다고 보도했다. 이 팀의 절반 이상이 AI 안전에 전담하고 있으며, 기존 MS 직원들과 신규 채용 직원들이 합류했다.
이는 올초 구글 제미나이의 인종 편향적인 이미지 생성 문제와 자사 코파일럿 디자이너의 폭력적인 콘텐츠 생성 문제가 겹치면서 자사 AI 도구에 대한 신뢰를 높이기 위한 조치로 해석된다.
MS는 지난해 메타, 구글 등 여러 기업이 신뢰 및 안전 팀을 해체한 것과 마찬가지로 AI 윤리팀을 해산한 바 있다. 하지만 이후 선거 등을 이유로 경계의 목소리가 높아지며, 인원을 대거 늘린 것으로 확인됐다.
한편 MS는 AI를 안전하게 배포하기 위한 접근 방식으로 미국 국립표준기술연구소(NIST)에서 고안한 프레임워크를 기반으로 하는 것으로 알려졌다.
이를 기반으로 MS는 사람들이 AI 챗봇을 속여 이상한 행동을 하게 만드는 탈옥을 방지하는 ‘프롬프트 쉴드(Prompt Shield)' 30개를 출시했다고 밝혔다.
박찬 기자 cpark@aitimes.com
관련기사
