일론 머스크 CEO가 지난주 공개한 그록-3가 연일 논란에 휩싸이고 있습니다. 출시 직후에는 벤치마크에 대한 문제가 주를 이루더니 이제는 'AI 정렬', 즉 안전과 신뢰성 문제로 확대되는 모습입니다.
이미 '그록-1'이나 '그록-2' 시절부터 다른 챗봇에서는 대답을 피하는 문제에도 답을 내놓는다는 점으로 잘 알려져 있습니다. 지난해에는 가드레일 없는 이미지 생성으로도 화제가 됐습니다. 이는 머스크 CEO의 성향을 그대로 반영한 것입니다.
그는 언론의 자유를 주장하며, 다른 챗봇들이 정치나 인종과 같은 민감한 문제에 답을 거부한 것을 검열이라고 비난해 왔습니다. 그리고 그록은 "진실을 말하는 AI"라는 점을 강조해 왔습니다.
이는 그동안 나름 차별점으로 통했습니다. 하지만 xAI가 그록의 사용성을 높이기 위해 X 무료 사용자들에게도 서비스를 개방한 데 이어 별도의 모바일 앱까지 만들어 배포하자, 이제는 특정 머스크 지지자들만 사용하는 챗봇이 아니게 됐습니다.
특히, 이번에 그록-3를 내놓으며 세계에서 가장 똑똑한 AI라고 강조하자, 본격적으로 도마 위에 오르게 됐습니다. 과거 챗GPT나 제미나이가 편향성 등으로 인해 구설에 시달렸던 단계를 이제야 밟고 있는 것으로 볼 수 있습니다.
23일(현지시간)에는 그록-3가 도널드 트럼프 대통령이나 머스크 CEO를 비방하지 말라는 지시를 받았다는 내용이 밝혀졌습니다. 이는 머스크 CEO가 반대하는 검열에 해당하는 내용으로, 많은 사용자는 이에 비판을 퍼부었습니다.
또 24일에는 그록이 치명적인 생물학 무기 제조법을 알려줬다는 증언까지 나왔습니다. IT 회사 플로커브의 공동 창립자이자 스스로를 'AI 전도사'라고 부르는 리누스 에켄스탐은 X(트위터)를 통해 "Grok 3가 공급업체 목록과 단계별 가이드가 포함된 대량 살상 화학 무기를 만드는 자세한 지침이 담긴 수백페이지 분량의 문서를 제공했다"라고 주장했습니다.
그는 "이 화합물은 너무 치명적이어서 수백만명의 사람을 죽일 수 있다"라며, xAI가 추가 안전 가드레일을 구현하여 대응했지만, "일부는 여전히 문제가 될 수 있다"라고 덧붙였습니다.
xAI도 이런 문제에 대한 조치를 강화하겠지만, 많은 사람들이 그록을 사용할수록 문제는 더 많이 노출될 수밖에 없습니다.
특히, 그록을 노골적으로 싫어하는 사람들이 늘어난다는 것이 문제입니다. 사실은 그록이 아니라 머스크 CEO가 싫다는 것이 이유입니다. 지난해 미국 대선에서 47%가 넘는 미국인들은 머스크 CEO가 지지한 트럼프 대통령에게 표를 주지 않았습니다.
또 머스크 CEO의 추종자로 보이는 일부 사용자도 '안티 그록' 현상에 부채질하고 있습니다. 앤트로픽의 이날 출시한 '클로드 3.7 소네트' 관련 게시물은 물론, 샘 알트먼 오픈AI CEO의 X 게시물에는 꼭 그록이나 머스크 CEO를 지지하는 댓글이 등장합니다. 이런 댓글은 다수로부터 '싫어요'를 받고 있습니다.
아이돌 커뮤니티에서 흔한 현상과 비슷합니다. 열성팬 때문에 가수까지 싫어하게 만드는 듯한 일이 AI에서도 일어나고 있습니다.
머스크 CEO는 이처럼 그록을 정치적인 이슈에 끌어들이는 모습입니다. 물론, 이런 전략은 손해가 될 것은 없습니다. 어차피 챗GPT나 클로드보다 지명도가 많이 떨어지고 일반적인 방법으로 점유율을 끌어올리기는 쉽지 않습니다. 정치 이슈를 활용, 지지층들의 사용률을 끌어올리는 것은 효과적일 수 있습니다.
이처럼 그록은 성능 논란과 안전성 논란에서 나아가 정치 논란을 일으킨 AI 챗봇이 될 것으로 보입니다. 이것이 머스크 CEO가 원하는 '진실을 말하는 AI'일까요.
이어 24일 주요 뉴스입니다.
■ 앤트로픽, 최초의 추론-비추론 하이브리드 모델 '클로드 3.7 소네트' 출시
앤트로픽이 GPT-5에 앞서 첫 추론-비추론 결합 모델을 내놓았습니다. 사실 이런 모델은 처음이라, 앞으로 사용자 반응이나 사용 사례가 주목됩니다. 오픈AI도 이를 주시하고 있을 것으로 보입니다.
■ 애플, 시리에 '챗GPT' 이어 구글 '제미나이' 통합 추진
애플이 시리에 제미나이 통합을 추진 중이라는 소식입니다. 이는 예상보다 매우 늦은 것입니다. 또 제미나이 추가보다 현재 애플 인텔리전스의 문제를 고치는 것이 급선무로 보입니다.
■ 엔비디아 "AI 사전 훈련보다 사후 훈련 30배·추론 100배 더 많은 컴퓨팅 필요"
AI 모델의 사전 훈련보다 사후 훈련과 서비스에 필요한 컴퓨팅의 양이 훨씬 많다고 엔비디아가 밝혔습니다. 각각 30배에서 100배가 넘는다는 것입니다. 따라서 딥시크 같은 저렴한 모델이 나와도 GPU 수요는 더 늘어난다는 설명입니다.
AI타임스 news@aitimes.com
