(사진=오픈AI)
(사진=오픈AI)

오픈AI가 'GPT-4' 등 대형언어모델(LLM)의 문제점을 파악하기 위해 ‘레드팀’을 별도로 구성한다. 이는 빅테크들이 공동으로 발표한 'AI 안전 서약'에 따른 것으로, 외부의 다양한 전문가를 모집해서 LLM 안전성 향상에 도움을 받겠다는 계획이다. 

오픈AI는 19일(현지시간) 공식 블로그를 통해 전문가와 연구기관 및 시민 단체 등 외부 전문가를 공개적으로 모집, AI 모델의 편향성과 안전 문제에 대응하기 위한 레드팀 네트워크를 구성하겠다고 밝혔다.

오픈AI는 “더 안전한 모델을 만들기 위해 외부 전문가와의 협업을 공식적으로 강화하고 확대하려 한다”라며 “전문가, 연구 기관 및 시민 사회 단체와의 협력은 오픈AI에게 매우 중요한 부분이다. 제3자 같은 외부 감사를 통해 거버넌스 활동을 보완할 수 있을 것”이라고 설명했다. 

이와 관련, 오픈AI와 구글, 메타 등 7개 AI 기업은 지난 7월 백악관에서 8개 조항의 자발적인 'AI 안전 서약'을 발표했다. 여기에는 AI 오남용 모니터링 외부 팀, 즉 레드팀을 구성한다는 내용이 포함돼 있다. 따라서 다른 기업도 앞으로 레드팀 구성을 공식화할 것으로 보인다.

레드팀은 공식 홈페이지에서 누구나 지원할 수 있으며, 후보자 접수는 2023년 12월1일까지다. 물리와 화학, 생물학, 컴퓨터 공학 등 과학 전문가는 물론 심리, 정치, 사회, 교육, 법률, 의학, 인지과학 등 다양한 분야 전문가가 모집 대상이다. AI에 대한 기술적 지식은 없어도 되지만, 기밀 유지 협약을 체결할 수도 있다. 

레드팀이 검토하는 모델이나 기술에 대한 접근 권한은 구성원마다 다르게 부여된다. 레드팀 구성원이 맡는 활동은 간단한 Q&A 테스트부터 복잡한 시뮬레이션 등 다양하다. 

평가 관련 샘플이나 템플릿은 깃허브에 공유할 예정이다. 활동 기간이나 검토 기간도 구성원마다 다르며, 짧은 경우 1년에 5-10시간 수준일 수 있다고 설명했다. 

오픈AI는 "우리가 가장 중요시하는 것은 AI 시스템의 영향을 평가하는 방법에 참여하고 관점을 제시하려는 의지"라며 "전 세계 전문가들로부터 지원서를 받아 선정 과정에서 다양성을 우선시할 것"이라고 전했다.

박찬 기자 cpark@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지