(사진=셔터스톡)
(사진=셔터스톡)

오픈AI가 인공지능(AI) 모델의 안전성 확보를 위한 내부 평가 체계인 ‘준비 프레임워크(Preparedness Framework)’를 개정했다. 경쟁사의 고위험 모델을 출시하면, 오픈AI도 안전 테스트를 축소하고 출시로 대응하겠다는 내용이다. 

오픈AI는 15일(현지시간) 블로그를 통해 “다른 AI 기업이 적절한 안전장치 없이 고위험 시스템을 출시할 경우, 우리도 안전 요건을 조정할 수 있다”라고 밝혔다. 하지만, 이 경우에도 여전히 “더 높은 수준의 보호 조치를 유지하겠다”라고 강조했다.

이번 발표는 AI 기술의 상용화 속도가 빨라지는 가운데, 오픈AI도 제품의 신속한 배포를 위해 유연한 대응 전략을 마련하겠다는 뜻이다.

실제로 최근에는 모델 출시 주기가 빨라지고 있다. 예를 들어, 추론 모델 'o1'이 등장한 지 7개월여 만에 세번째 모델인 'o4-미니'가 출시 대기 중이다.

이번 발표가 구체적으로 어떤 회사를 염두에 둔 것인지는 알려지지 않았다. 

또 오픈AI는 빠른 제품 출시를 위해 안전 기준을 희생한다는 지적을 받아왔으며, 안전성 보고서 공개 지연도 비판을 받아왔다. 지난주에는 오픈AI가 차기 주요 모델에 대해 안전 검토 기간을 1주일 미만으로 설정했으며, 이례적으로 짧은 일정이라는 파이낸셜 타임스의 보도가 나왔다. 일부 테스트는 실제 공개 버전이 아닌 초기 모델에 대해 이뤄졌다는 주장도 제기됐다.

새로운 준비 프레임워크를 통해 오픈AI가 제품 개발 속도를 높이기 위해 자동화된 평가 시스템에 더 많이 의존하고 있다는 것도 드러났다. 오픈AI는 “사람이 주도하는 테스트를 완전히 포기한 것은 아니지만, 더 빠른 출시 주기에 발맞추기 위해 자동화된 평가 도구들을 확대해 왔다”라고 밝혔다.

그러나 이 같은 설명과 달리, 일부에서는 오픈AI의 내부 안전 절차가 오히려 약화하고 있다고 주장했다. 오픈AI는 이를 강하게 부인하며, “보호 수준을 유지하면서도 시장 변화에 유연하게 대응하기 위한 조치”라고 해명했다.

한편, 이날 AI 모델 평가 및 분석 도구를 개발하는 스타트업 컨텍스트.ai가 오픈AI에 인수, 합류한다고 발표했다.

박찬 기자 cpark@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지