(사진=앤트로픽)
(사진=앤트로픽)

앤트로픽이 미국의 국방 및 정보기관 전용 인공지능(AI) 모델 ‘클로드 거브(Claude Gov)’를 선보였다. 국가 안보를 위한 특수 목적형 AI를 공식 제공하는 첫 사례로, 다른 AI 기업의 추세를 따라가고 있다.

앤트로픽은 6일(현지시간) 클로드 거브가 전략 기획, 작전 지원, 정보 분석 등 정부의 고도화된 임무 수행을 위해 설계됐다며 “미국 최고 수준의 국가안보 기관에서 이미 사용 중”이라고 발표했다. 구체적인 기관명이나 사용 기간 등은 공개하지 않았다.

이 모델은 기존 소비자 및 기업용 모델보다 정부 기관의 요구에 최적화된 성능과 제약 완화 기능을 제공한다.

특히, 기밀 정보를 다룰 때 기존 클로드와 달리 응답 제한이 덜하다. 또 국방이나 정보 분야에서 활용되는 전문 문서와 맥락 파악, 외국어 및 방언 해석 능력도 대폭 강화됐다고 설명했다.

기존 모델과 동일한 수준의 안전성 테스트를 거쳤지만, 일부 사용 정책에는 예외가 적용됐다고 밝혔다. 예를 들어, 무기 설계와 배포, 악의적 사이버 작전, 검열 시스템 구축 등은 여전히 금지되지만, 정부 기관의 법적 권한과 임무에 따라 사용 제한을 조정할 수 있도록 계약상 예외 조항을 추가했다고 소개했다.

이는 오픈AI가 지난 1월 공개한 ‘챗GPT 거브’에 대한 대응이다. 오픈AI는 이미 연방과 주·지방 정부 9만명 이상 직원들이 정책 메모 작성과 번역, 요약, 코드 작성 등에 이를 활용한다고 밝힌 바 있다. 스케일 AI도 미 국방부와의 계약을 통해 군사 작전 계획을 위한 AI 에이전트 프로그램을 추진 중이다.

앤트로픽은 클로드 거브 출시 이전부터 미국 정부기관 대상 서비스형 소프트웨어(SaaS) 플랫폼인 팔란티어의 ‘페드스타트(FedStart)’ 프로그램에 참여 중이며, 이를 통해 B2G 확대를 모색하고 있다.

한편, AI 모델의 공공 부문 활용은 그동안 소수자 차별, 개인정보 침해, 무기화 등 윤리적 논란을 일으켜 왔다. 특히, 안면 인식과 범죄자 예측 알고리즘, 복지 대상 선별 등에서 문제가 거듭 불거지며 ‘인종차별에 반대하는 기술 연대(No Tech for Apartheid)’와 같은 반대운동을 유발했다.

앤트로픽은 이런 우려에 대해 “우리 제품을 무기 제작이나 폭력 유발 목적, 불법 행위 등에 사용할 수 없다는 정책을 고수하고 있다”라며 정부 활용 시에도 “유익한 사용과 잠재적 해악 간 균형을 추구하겠다”라고 강조했다.

박찬 기자 cpark@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지