xAI의 인공지능(AI) 챗봇 ‘그록’이 위험 발언과 성적·공격적 캐릭터 기능으로 논란을 일으키는 가운데, 주요 AI 기업 안전 연구원들이 xAI를 “무모하고 무책임하다”라며 공개 비판했다. 최근 최소한의 시스템 카드조차 공개하지 않는 행태를 지적한 것이다.
테크크런치는 16일(현지시간) 오픈AI와 앤트로픽 등의 연구원들이 xAI의 '무모하고 무책임한' 안전 관행을 소셜 미디어를 통해 비판했다고 전했다.
하버드대 교수이자 현재 오픈AI에서 안전 연구를 진행 중인 보아즈 바라크는 “같은 업계에 근무하고 있기 때문에 말을 아끼고 싶었지만, 이제는 경쟁 문제를 뛰어 넘었”라며 xAI의 안전 조치를 “완전히 무책임하다”라고 규탄했다.
특히 xAI가 AI 모델의 훈련 방식과 위험 평가 결과 등을 담은 ‘시스템 카드’를 공개하지 않은 점을 지적했다. 시스템 카드는 업계에서 최소한의 투명성 확보 수단으로 여겨진다.
사무엘 마크스 앤트로픽 AI 안전 연구원도 “xAI는 사전 안전 검토나 문서화조차 하지 않고 모델을 배포했다. 이는 매우 무모한 행위”라며 동조했다.
오픈AI나 구글도 'GPT-4.1'이나 '제미나이 2.5 프로' 등 일부 모델의 시스템 카드를 늦게 공개하거나 생략한 적이 있지만, 최소한 ‘프론티어 모델’에 대해서는 배포 전 평가 보고서를 내는 것이 일반적이다.
그러나, xAI는 이런 절차조차 무시하고 있다는 것이 연구자들의 공통된 지적이다. 대신, 벤치마크 결과만 늘어놓으며 "세계 최고의 모델"이라는 홍보에만 열을 올리고 있다.
독립 AI 연구자이자 오픈AI에서 안전팀을 이끌었던 스티븐 애들러는 “위험성 평가 결과조차 공개되지 않는 건 심각한 문제”라며 “정부와 대중은 AI 기업들이 강력한 시스템을 어떻게 관리하고 있는지 알 권리가 있다”라고 강조했다.
아이러니한 점은, 일론 머스크 CEO는 오래전부터 AI 안전의 중요성을 외쳐온 인물이라는 것이다. 2023년 3월에는 "강력한 AI 시스템은 그 효과가 긍정적이고 위험을 관리할 수 있을 것이라는 확신이 있을 때만 개발해야 한다"라며 전문가 1000여명과 첨단 모델 개발 6개월 중단을 요구하기도 했다.
또 그록은 테슬라 차량 탑재와 미국 국방부와의 계약 추진 등으로 실제 적용이 임박한 상태로, 기본적인 안전장치 없이 기술을 배포한다는 비판에 무게가 실리고 있다.
전문가들은 챗봇의 극단적 발언이 정신적으로 불안정한 사용자에게 심리적 의존을 강화하거나 사회적 해를 유발할 수 있다는 점을 들어, 그록의 문제는 단순한 ‘버그’ 수준을 넘는다고 경고하고 있다. xAI는 내부적으로 위험성 평가를 수행했다고 주장하지만, 결과를 공개하지는 않았다.
업계 내부에서 경쟁사를 향해 직접적인 비판이 쏟아지는 것은 이례적인 일이다. 일부에서는 AI 업계 자율 규제만으로는 한계가 있다는 점을 강조하고 있다.
박찬 기자 cpark@aitimes.com
