(사진=셔터스톡)
(사진=셔터스톡)

인공일반지능(AGI) 개발을 목표로 내세운 메타가 특정 위험 상황에서는 AI 모델 개발을 중단하겠다고 선언했다. 하지만 구체적인 방법이 없어, 최근 딥시크 문제로 불거진 오픈 소스 안전 문제에 대응하려는 의도라는 평이다.

메타는 3일(현지시간) '프론티어 AI 프레임워크(Frontier AI Framework)'라는 정책 문서를 통해 AI 시스템을 공개하지 못할 특정 상황을 언급했다.

메타는 공개하기 너무 위험하다고 판단되는 AI 시스템을 '고위험(high risk)'과 '중대 위험(critical risk)' 두가지로 분류했다.

두 시스템은 모두 사이버 보안, 화학, 생물학적 공격에 사용될 수 있다. 그리고 고위험보다는 중대 위험이 막을 수 없는 치명적인 결과를 초래할 가능성이 크다는 설명이다.

일단 AI 시스템이 고위험으로 판단되면, 시스템에 대한 접근을 제한하고 위험을 '중간' 단계까지 줄일 때까지 공개를 미룬다고 밝혔다.

중대 위험은 시스템 중단은 물론, 보안 조치를 통해 시스템 유출을 막고 위험을 줄일 방법을 찾을 때까지 개발 자체를 중단한다고 전했다.

하지만, 시스템 위험을 실험이나 테스트를 통해 판단하는 것이 아니라, 내부 및 외부 연구자들의 의견을 바탕으로 메타 고위층이 평가한다는 점은 문제로 지적됐다.

따라서 이번 발표는 최근 딥시크의 등장으로 오픈 소스 모델의 안전성이 폐쇄형보다 떨어진다는 비판에 대응하려는 것이라는 평이다.

또 지난해 111월에는 중국 인민해방군과 관련된 주요 연구 기관들이 메타 '라마'를 활용해 군사 응용을 위한 AI 도구를 개발했다는 소식도 전해졌다.

박찬 기자 cpark@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지