오픈AI에서 인공지능(AI) 안전과 관련한 내부 폭로가 이어지고 있다. 지난 5월 공개한 'GPT-4o'가 내부 안전 프로세스조차 무시하고 서둘러 공개됐다는 말이 나온 데 이어, 안전에 대한 내부 고발을 금지하는 계약을 파기해달라고 정부 당국에 요청하는 일까지 일어났다.
워싱턴포스트(WP)는 12일(현지시간) 익명을 요구한 관계자 3명을 인용, 오픈AI가 GPT-4o 출시일을 맞추기 위해 내부 안전 테스트 절차를 서둘러 마무리했다고 보도했다.
이에 따르면 오픈AI는 직원들의 반발에도 불구하고, 안전 테스터 기간을 단 1주일로 압축했다. 또 테스트 중 문제가 생기면 이미 안전하다고 판단된 이전 버전을 출시하는 대체안도 준비했다. 심지어 테스트가 끝나기도 전에 GPT-4o 출시를 자축하는 파티까지 계획한 것으로 알려졌다.
이에 대해 한 오픈AI 관계자는 "테스트를 완료하기에 1주일은 충분하지만, 압박이 있었던 것은 사실"이라고 인정했다. 또 "이는 가장 좋은 방법이 아닌 것은 맞다"라며 "테스트 방식을 전제적으로 재고하고 있다"라고 덧붙였다.
오픈AI는 "회사는 안전 프로세스에서 지름길을 택하지 않았지만, 팀이 스트레스를 받았다는 것을 알고 있다"라는 공식 입장을 내놓았다. "광범위한 내부 및 외부 테스트를 실시했으며, 처음에는 안전 작업을 계속하기 위해 일부 멀티미디어 기능을 보류했다"라고 덧붙였다.
이 회사는 AI 안전에 대해서 수차례 약속과 정책을 내놓은 바 있다. 지난해 7월 주요 기업 6곳과 자발적인 'AI 안전 서약'을 내놓은 데 이어, 올해 2월에는 백악관의 주도로 200개 기업이 참여한 'AI 안전 컨소시엄'에도 가입했다. 또 지난 5월에는 내부 인원과 이사진 등으로 구성한 '안전 위원회'를 발족, 90일 간의 테스트를 거친 뒤 이사회 승인을 얻어 신제품을 발표할 것이라고 발표했다.
하지만 이런 거듭된 약속에도 불구, 실제로 안전은 뒷전이라는 지적이다. 이 때문에 얼마 전에는 안전 관련 인원들이 회사에 실망했다며 잇달아 퇴사했다. 또 6월에는 전현직 직원 9명이 공개서한을 통해 "AI 위험 경고를 막지 말라"라고 촉구하고 나섰다.
이어 WP는 13일 오픈AI의 일부 직원이 미국 증권위원회(SEC)에 보낸 문서를 입수, 회사가 직원들과 내부 비밀을 유출할 경우 불이익을 주는 계약을 맺었다고 전했다.
이달 초 SEC에 보낸 문서에는 오픈AI가 직원들에게 비밀 유지 계약을 강요했으며, 이는 미국 정부의 내부 고발자 보호 방침을 위반하는 것이라 조사를 해달라고 촉구하는 내용이 담겼다.
이 문제는 지난 5월 내부 안전팀 해체 당시 처음 지적됐다. 당시 샘 알트먼 CEO는 이를 수정하겠다고 밝힌 바 있다. 오픈AI 역시 "이미 비방 금지 조항을 제거하기 위해 퇴사 절차에 중요한 변경을 가했다"라고 전했다.
일련의 사태는 이타적 사명을 가진 비영리 단체인 오픈AI가 안전보다 이익을 우선시한다는 지적 속에 등장한 것이다. 또 기술 기업의 엄격한 기밀 유지 계약은 오랫동안 근로자와 규제 기관을 괴롭혀 온 문제다.
이런 문제는 강력한 AI 규제법을 추진 중인 일부 의원들에게 힘을 실어줄 것으로 보인다. 미국에서 AI 회사는 대체로 법적 공백 속에서 운영되고 있으며, 정책 입안자들은 빠르게 움직이는 기술로 인한 잠재적 위협을 설명할 수 있는 고발자의 도움 없이는 효과적으로 새로운 AI 정책을 만들 수 없다고 지적하고 있다.
한편 SEC가 정식 조사에 착수했는지는 알려지지 않았다. 그러나 이 문서를 의회에 공유하는 과정에서 "이런 불법 계약을 해결하기 위해 신속하고 공격적인 조치를 취해야 한다"라고 강조한 것으로 알려졌다.
임대준 기자 ydj@aitimes.com
- 오픈AI 전현직 직원 9명 공개서한..."AI 위험 경고 막지 말 것"
- 오픈AI, 퇴직 직원에 회사 비방 금지 계약...알트먼 "바로 잡을 것"
- 백악관, 200개 기업 참여 'AI 안전 컨소시엄' 발표..."미국 AI 리더십 강화할 것"
- 오픈AI, 'GPT-5' 3개월 뒤 출시하나...90일 간 안전 위원회 활동 선언
- 안전 부서 축소한 오픈AI, '안전 정책' 자동학습법 발표
- 알트먼 "다음 오픈AI 모델은 미국 정부의 안전 검사 먼저 받을 예정"
- 오픈AI, AI 안전 전문가 콜터 이사회 임명
- 앤트로픽, 고성능 AI 시스템 안전 정책 업데이트..."4단계로 구분"
- 오픈AI, AGI 안전 대비 팀 또 해체..."세상은 AGI에 대해 준비 안 돼"
