데이터 세트 사례 교육, 인간 피드백 학습 통해 특정 작업 성과↑

어떤 텍스트 프롬프트에도 완성 텍스트 제시·개략적 패턴 일치화

소수의 대표 샘플 사용해 자연어를 유닉스 명령어로 변환할 수도

▲오픈AI(OpenAI)가 자사연구원들이 개발한 새로운 자연어 처리(NLP) 모델 액세스용 API를 최근 발표된 GPT-3와 함께 출시했다. (사진=오픈AI)
오픈AI(OpenAI)가 자사연구원들이 개발한 새로운 자연어 처리(NLP) 모델 액세스용 API를 최근 발표된 GPT-3와 함께 출시했다. 사진=오픈AI

“어떤 텍스트 프롬프트가 주어지더라도 완성된 텍스트를 내놓으며, 텍스트에 제공된 패턴을 대략적으로 일치시키려고 시도한다···함수(기능) 이름과 코멘트를 기반으로 코드를 완성할 수도 있고, 제안된 범주가 있는 스프레드시트 테이블을 생성할 수도 있다···소수의 대표 샘플을 사용해 자연어를 유닉스 명령어로 변환할 수도 있다···”

벤처비트는 11일(현지시간) 오픈AI(OpenAI)가 자사연구원들이 개발한 이같은 기능의 새로운 자연어 처리(NLP) 모델 접속(액세스)용 API(Application Programming Interface)를 최근 발표한 GPT-3와 함께 출시했다고 보도했다. 

오픈AI는 “이 API는 하나의 사용 목적을 두고 설계된 대다수 인공지능(AI) 시스템과 달리 일반 목적의 ‘텍스트-인, 텍스트- 아웃’ 인터페이스를 제공하면서 사실상 어떤 영어로 된 작업용으로도 사용할 수 있다”고 밝혔다.

이 API는 처음 2개월 동안 베타 형태로 무료 제공되며, 회원 계정에 가입한  고객만 접속할 수 있다. (알골리아, 코코, 메시지버드, 사플링, 레플리카, 케이스텍스트, 퀴즈릿, 레딧과 같은 기업들과 미들베리연구소 같은 기관 연구자들이 출시 전에 이 API를 시범 사용했다.)

이 회사는 이 API가 비용을 충당할 수 있는 수익원을 제공할 뿐만 아니라 협력사와 긴밀히 협력해 이를 현실에 적용할 때 어떤 어려움이 발생하는지 확인시켜 줄 수 있을 것이라고 말한다.

오픈AI는 블로그에서 “현장의 발전 속도는 긍정적이든 부정적이든 AI의 새로운 응용이 자주 발생한다는 것을 의미한다. 우리는 괴롭힘, 스팸, 급진화, 또는 여론조작 같은 명백한 유해 사용 사례에 대한 API 접속을 종료할 것”이라고 썼다. 또 “이 새로운 API 모델은 우리가 기술의 오용에 더 쉽게 대응할 수 있게 해 준다. 우리 모델의 다운스트림 사용 사례를 예측하기 어렵기 때문에, 유해한 애플리케이션이 있는 것으로 판명될 경우 접속에 적응할 수 없는 오픈 소스 모델을 내놓기보다는 API를 통해 출시하고 시간이 지남에 따라 액세스를 확대하는 것이 본질적으로 안전하다고 느낀다”고 말했다.

이 API는 어떤 텍스트 프롬프트가 주어지더라도 텍스트를 완성해 내놓으며, 텍스트에 제공된 패턴을 대략적으로 일치시키려고 시도한다. 개발자는 그들이 하고 싶은 일의 몇 가지 예를 보여줌으로써 그것을 프로그래밍 할 수 있다.

이의 성공은 주어진 업무가 얼마나 복잡한지에 따라 다르다. API는 제공된 데이터 세트 사례에 대한 교육, 또는 사용자나 라벨 부착자가 제공하는 인간 피드백으로 학습함으로써 특정 작업에 대한 성과를 높일 수 있다.

함수(기능) 이름과 코멘트를 기반으로 코드를 완성할 수도 있고, 제안된 범주가 있는 스프레드시트 테이블을 생성할 수도 있고, 소수의 대표 샘플을 사용하여 자연어를 유닉스 명령어로 변환할 수도 있다.

오픈AI는 “우리는 API를 누구나 쉽게 사용할 수 있도록 한 것은 물론 머신러닝(기계학습) 팀의 생산성을 높일 수 있을 만큼 충분히 유연하게 설계했다. 사실 우리 팀 중 다수가 분산 시스템 문제보다는 머신러닝 연구에 집중할 수 있도록 API를 활용하고 있다”고 말했다.또 “우리는 중소기업과 조직이 API를 통해 강력한 AI 시스템을 보다 쉽게 이용할 수 있게 되기를 희망한다”“고 덧붙였다.

이 회사는 슈퍼인텔리전스 소프트웨어(SW)를 안전하게 만드는 것을 표방하고 있는데 컴퓨터 비전에서부터 자연어 처리(NLP)에 이르는 AI 하위 분야(sub field) 연구 성과를 발표하고 있다. 지난 2015년 비영리단체로 시작됐지만 이후 투자회사 ‘오픈AI LP’의 투자를 받아 이익상한선을 정한(capped-profit) 회사로 재편됐다. AI 커뮤니티의 반발을 예상한 오픈AI는 “API는 현재 진행 중인 연구, 안전성, 정책 노력에 대해 금전적 지원을 할 것”이라고 말했다.

실제로 오픈GPT-3만 해도 메모리 요구량이 350기가바이트(GB) 이상에, 훈련 비용만도 1200만 달러(약 145억 원)가 넘을 것으로 추정된다. 오픈AI는 이 자금을 대기 위해 이전 창립 멤버들과 투자자들로부터 10억 달러(약 1조2000억 원)의 기부금, 그리고 마이크로소프트(MS)로부터도 10억 달러의 투자금을 확보했다. MS자금 일부는 애저에서 실행되는 AI 슈퍼컴 개발에 지원됐다. 지금까지 오픈AI LP는 리드 호프만의 자선재단과 코슬라 벤처스로부터 자금을 유치했다.

이 회사는 또한 자사의 학술 접근 프로그램을 통해 써드파티 연구자들과의 들과의 연구 수행 과정에서 발생한 잠재적 오용 사례 연구까지 계속 수행하고 있으며 이에따라 이를 기반으로 하는 대형 모델들의 개발도 알려주게 된다고 밝히고 있다. 
 
오픈AI는 “API의 잠재적인 위해성에 대해 ‘철저히 이해’할 수 있게 개발하고 위해를 최소화하는 데 도움이 되는 툴과 프로세스를 지속적으로 개선하는 목표를 세웠다”고 말했다. 또 “유해한 편견과 같은 부정적인 영향을 완화시키는 것은 산업 전반에 걸친 매우 중요하고도 어려운 문제다. 궁극적으로 우리의 API 모델은 생성된 텍스트에 가끔 나타나는 편견을 보여 준다”고 썼다. 이어 “이는 우리가 사용자들과 함께 사용지침을 개발해 서로 배우고, 이러한 문제를 실무적으로 완화시키도록 돕는 이유다. 우리는 또한 사용자들과 긴밀히 협력해 이들의 사용 사례를 깊이 이해하고 유해한 편향의 표현에 개입해 라벨을 붙일 수 있는 툴을 개발하고 있고, 유해한 편향, 그리고 공정성과 대표성이라는 더 광범위한 문제에 대한 자체 연구를 수행하고 있으며, 이는 사용자들에게 우리의 작업 정보를 제공할 수 있다”고 설명했다.

이 회사는 과거 신중하고 논란의 여지가 있는 위해 위해성에 대해 경감해 나가는 접근법을 채택했다. 실제로 지난해 2월 GPT-2 데뷔 때엔 악의적 행위자의 딥페이크 오용과 잠재적 자동화 오용을 우려해 4가지 버전 모델을 모두 공유하지 않기로 했고 이는 다양한 작업에서 주도적인 성과를 거두게 했다. 

이 결정에 대해 비판하는 사람들은 “소스 코드를 발표하지 않는 것은 모델이나 결과를 복제할 자원이 부족한 사회와 과학자들에게 잠재적인 위협이 된다”고 말했다. 다른 사람들은 그것을 홍보용 묘기라고 불렀다.

오픈AI는 이후 GPT-2의 몇 가지 더 작고 덜 복잡한 버전을 출시하고 이들이 어떻게 수용되는지와 함께 그들이 훈련시킨 데이터 세트를 연구했다. 이 회사는 지난해 12월 오용에 대한 “강력한 증거가 없다”는 결론이 나자 웹에서 스크랩한 800만 개의 텍스트 문서에서 훈련한 전 모델을 발표했다.

키워드 관련기사
  • 페이스북, AI로 컴퓨터 코드 자유자재로 변환
  • MS, 새 AI 슈퍼컴과 머신러닝툴 공개
  • 오픈AI, AI 모델 효율성 검증 착수
  • 키워드

    Tags #오픈AI #API