중국의 인공지능(AI) 시스템이 미국의 선도 모델들과 유사한 수준의 ‘프론티어 위험(Frontier Risk)’ 단계에 근접하고 있다는 분석이 나왔다. 최근 중국 모델의 성능이 빠르게 향상되자, 그동안 덜 부각됐던 안전 문제가 지적되기 시작한 것으로 볼 수 있다.
사우스차이나모닝포스트는 7일(현지시간) 중국의 AI 안전 전문 콘코르디아 AI(Concordia AI)의 최근 보고서를 인용, 딥시크 등 중국 주요 기업의 AI 모델들이 공공 안전과 사회 안정성을 위협할 수 있는 프론티어 위험 수준으로 발전했다고 보도했다.
이는 AI가 사이버 공격이나 생화학 무기 개발, 인간 통제 상실 등 치명적 결과를 초래할 가능성을 뜻한다. 콘코디아 AI는 50개 주요 모델을 분석한 결과, 중국 모델들이 이제 미국 첨단 모델처럼 위험 경계선에 진입했다고 경고했다.
보고서에 따르면, '딥시크-R1'은 사이버 공격 수행 능력 부문에서 가장 높은 위험 점수를 받았다.
바이트댄스의 '더우바오 시드(Doubao Seed) 1.6'은 생물학 실험 프로토콜 문제 해결에서 인간 전문가를 처음으로 능가했다. 이 능력은 생물무기 개발 위험과 밀접하게 관련된 것으로 평가된다. 오픈AI의 'GPT-5'와 xAI의 '그록-4'와 맞먹는 수준이다.
왕웨이빙 콘코르디아 AI 수석 연구원은 모델의 위험 점수를 사이버 공격·생물학적 위험·화학적 위험·통제 상실 등 4개 영역에서 산업 기준과 비교해 산정했다고 밝혔다.
그 결과, 모든 영역에서 위험 점수는 전년에 비해 상승했다. 특히 통제 상실 위험은 50%, 생물학적 위험은 38% 증가했다.
이런 결과는 추론 모델의 증가에 따른 것으로 분석됐다. 추론 모델은 답변 생성 전 논리적 사고 과정을 거치며 성능이 향상된다.
오픈AI나 앤트로픽 등은 이에 대응해 안전 조치를 강화한 바 있다. 보고서는 미국 기업 모델들이 성능 향상에도 불구하고, 비교적 낮은 위험 수준을 유지했다고 평했다.
브라이언 체 콘코디아 AI CEO는 “AI 모델이 인간 수준의 추론 능력을 갖출수록 예측 불가능성이 커지며, 기존의 안전 관리 체계가 한계를 드러내고 있다”라고 지적했다.
중국 정부도 최근 프론티어 위험에 대한 우려를 공식적으로 제기하고 있다.
중국 사이버공간관리국(CAC) 산하 기술 표준 기구는 지난달 발표한 문서에서 AI 시스템이 인간의 통제를 벗어날 위험을 언급했으며, 지난주에는 AI 안전 및 사고 보고 조항을 처음으로 포함한 사이버 보안법 개정안을 통과시켰다.
박찬 기자 cpark@aitimes.com
