(사진=앤트로픽)
(사진=앤트로픽)

앤트로픽이 '클로드'의 안전 가이드라인을 대폭 강화했다. 인공지능(AI) 모델의 성능 향상에 맞춰, 악용의 소지를 막기 위해 포괄적이고 광범위한 조치를 발표했다.  

엔트로픽은 15일(현지시간) 클로드의 사용 정책(Usage Policy)을 개정해 오는 9월15일부터 적용한다고 발표했다. 

앤트로픽은 기존 정책에서도 무기·폭발물·위험 물질의 제작 및 유통을 금지했으나, 이번 개정을 통해 고위력 폭발물, 생물학무기, 핵무기, 화학무기, 방사능 무기를 구체적으로 명시했다.

이는 지난 5월 ‘클로드 오퍼스 4’ 출시와 함께 도입된 'AI 안전 수준 3(AI Safety Level 3)' 체계를 보완하는 조치다. 모델의 탈옥 시도를 어렵게 하고 핵·화학·생물학·방사능(CBRN) 무기 개발 지원 가능성을 원천 차단하려는 목적이라고 밝혔다.

특히, 최근 AI 에이전트 기능의 빠른 발전에 맞춘 대응책을 포함했다. '클로드 코드'와 '컴퓨터 유즈(Computer Use)' 같은 에이전트 도구가 악성코드 제작이나 사이버 공격, 대규모 남용 등으로 이어질 위험이 더 크기 때문이다.

이에 따라 앤트로픽은 컴퓨터와 네트워크, 인프라 침해 행위 금지 조항을 신설했다. 이를 통해 취약점 탐지와 악용, 악성코드 제작과 배포, 서비스 거부(DoS) 공격 도구 개발 등을 금지된다.

다만, 시스템 소유자의 동의 하에 취약점을 탐지하는 등 합법적인 보안 강화 활용은 허용한다고 명시했다.

그러나, 트럼프 행정부의 정책에 맞춰 정치 콘텐츠 정책은 일부 완화됐다. 기존에는 정치 캠페인 및 로비 활동과 관련한 콘텐츠를 전면 금지했으나, 앞으로는 민주적 절차를 교란하거나 유권자나 선거 운동을 악용되는 사례에만 제한을 두기로 했다.

법 집행 관련 조항도 더 명확하게 다듬어졌다. 기존에는 허용·예외 규정이 혼재됐으나, 이번 개정으로 감시와 추적, 프로파일링, 생체인식 모니터링은 금지하되, 이미 허용됐던 백오피스 및 분석용 활용은 유지한다.

마지막으로, 법률·금융·고용 등 사회적 파급력이 큰 ‘고위험(high-risk)’ 활용 사례에 대한 기준이 명확해졌다. 이 경우에는 인간이 반드시 검토 절차를 거치고, 소비자를 대상으로 한 서비스에는 AI 활용 사실을 알려야 한다.

앤트로픽은 “사용 정책은 AI 위험이 진화함에 따라 함께 발전하는 ‘살아있는 문서’”라고 강조했다. 또 “앞으로도 정책 입안자와 전문가, 시민사회와 협력해 지속적으로 정책을 점검하고 보완하겠다”라고 밝혔다.

박찬 기자 cpark@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지