오픈AI가 또 안전 관련 주요 인원을 타 부서에 배치했다. 이번에는 지난해 축출 사태 당시 자신을 옹호했던 친 알트먼파라 눈길을 모았다.
디 인포메이션은 23일(현지시간) 정통한 소식통을 인용, 오픈AI가 인공지능(AI) 안전 리더인 알렉산더 매드리를 연구 조직 내의 다른 역할에 재배치했다고 보도했다.
매드리는 지난해 최첨단 AI 모델과 관련된 재앙적 위험을 추적, 평가, 예측하고 이를 보호하는 업무를 담당하는 대비(Preparedness) 팀을 설립, 책임자를 맡았다.
오픈AI는 MIT 교수이기도 한 매드리가 AI 추론과 관련된 더 큰 역할을 맡을 것이라고 밝혔지만, 새로운 역할은 준비 팀 책임자 역할만큼 두드러지지 않는 것으로 보인다고 소식통은 전했다.
또 연구원인 테잘 패트워던이 이제 대비 팀의 업무 대부분을 관리하게 될 것이라고 덧붙였다.
매드리의 역할 변화는 인간의 대화를 모방하고 텍스트 프롬프트에서 멀티미디어 콘텐츠를 생성하는 오픈AI의 챗봇이 점점 더 강력해지면서 안전에 대한 우려가 제기되고 있는 시점에 이뤄진 것이다.
오픈AI의 대변인은 이번 조치에 대해 "우리는 팀 구조를 지속적으로 평가하고 개선, 임무를 효과적으로 추진하고 있다"라고 설명했다. 알트먼 CEO도 매드리의 역할이 축소됐다는 지적에 대해 "그는 새로운 중요 연구 프로젝트를 진행하고 있다"라고 강조했다.
이번 조치의 이유는 알려지지 않았다. 그러나 연방 규제 기관이나 정치인들에게 주목받을 수 있는 사인이다. 이미 회사 내 유명한 안전 중심 AI 연구원들이 샘 알트먼 CEO과의 충돌 이후 회사를 떠난 바 있기 때문이다. 여기에는 일리야 수츠케버 수석과학자와 얀 라이크 초정렬 팀 리더 등이 포함됐다.
실제로 최근 외부로부터 AI 안전에 대해 압박을 받고 있다. 미국 상원의원 5명은 22일 알트먼 CEO에게 안전한 AI 개발 계획에 대한 자세한 내용을 공유해 달라는 서한을 보냈다.
질문에는 오픈AI가 안전 연구 팀에 컴퓨팅 자원을 어떻게 배분하는지와 어떤 보안 조치를 취하는지 등이 포함돼 있다. 이는 기존 퇴사자들이 회사에 불만을 표한 내용과 동일하다.
내부적으로도 AI 안전 팀과 관련한 논란과 갈등이 끊이지 않고 있는 실정이다.
가장 최근에는 'GPT-2'를 개발한 핵심 연구원 제프리 우와 초기 오픈AI 연구원 중 한 명인 유리 부르다가 회사를 떠났다. 이들은 회사 비방 금지 조항에 불만을 가진 것으로 알려졌다.
박찬 기자 cpark@aitimes.com
