"GPT-3는 희망인가, 위협인가"...논란 '팽팽'
상태바
"GPT-3는 희망인가, 위협인가"...논란 '팽팽'
  • 입력 2020-07-27 17:26
  • 댓글 1
이 기사를 공유합니다

텍스트 생성기지만 트위터 에세이 작성에서 SW코딩까지···팔방미인

“사람 실험수행자 작문 스타일을 배우고 그와 비슷한 이메일도 작성

페이크뉴스 시대 맞아 저명 정치인처럼 가짜 뉴스 조작 가능성 우려

유태인이나 여성 같은 단어 주어졌을 때 반유대적 또는 여성혐오적

제공된 데이터 편견 반영···독성 언어 생성하는 문제있는 알고리즘”

“인류 위협커녕 스스로 뭘하는지도 몰라···보이는만큼 영리하지 않아”
오픈AI사의 GPT-3가 탁월한 성능으로 최고의 머신러닝으로 각광받고 있지만 우려도 적지 않다. 사진=오픈AI
오픈AI사의 텍스트생성 AI인 GPT-3 베타버전이 출시되면서 AI업계가 찬반양론으로 갈려 팽팽한 논란의 중심에 섰다.사진=오픈AI

“페이크뉴스 시대 맞아 저명 정치인처럼 가짜 뉴스 조작 가능성이 우려된다.” BBC.

“‘유대인’이나 ‘여성’ 같은 단어가 주어졌을 때 ‘반유대적’이거나 ‘여성혐오적’인 것으로 드러났다. 인류에 위협이 될 GPT-2 공개 출시에 이어 어떻게 GPT-3 공개로까지 왔는지 이해할 수 없다.” 제롬 페센티 페이스북 AI 대표.
 
“GPT-3는 인류에 위협이 되기는 커녕 스스로 뭘하는지도 모른다. 보이는 만큼 영리하지 않다.” 마이클 울드리지 옥스퍼드대 AI 교수.

“이 모델을 둘러싼 과대 광고가 사람들로 하여금 언어 모델이 이해하거나 의미를 가질 수 있다고 오해하게 해서는 안 된다.” 에밀리 벤더 워싱턴대 교수(자연어처리·언어학자).

BBC와 벤처비트는 24일(현지시각) 최근 AI 연구계와 산업계에서 그 탁월한 성능으로 업계를 흥분시키며 최고의 주목을 받고 있는 오픈AI의 인공지능(AI) GPT-3 도입 및 활용을 둘러싼 팽팽한 찬반논란을 짚었다. GPT-3는 오픈AI가 베타 출시한 상태다.

한쪽은 이 팔방미인 AI에 대해 아직까지 인간을 넘어서지 못하고 있다며 너그러운 반면, 반대측에서는 편견을 보이는데다 정치인들 대상의 가짜뉴스를 만들 우려를 표명하며 위협으로 보고 있다.

◆업계, 오픈AI가 만든 GPT-3의 탁월한 성능에 흥분의 도가니 

최근 AI업계 최고의 화제는 요약, 기사 작성을 위한 텍스트 생성, 번역과 같은 광범위한 텍스트 생성 작업을 해 주는 언어 생성 AI 모델인 GPT-3의 베타버전 출시였다.

오픈AI의 이 놀라운 학습능력을 가진 AI, 더 정확하게는 머신러닝 툴인 GPT-3는 그 탁월한 성능으로 업계를 흥분으로 술렁이게 만들고 있다.

보도에 따르면 GPT-3는 본질적으로 텍스트 생성기지만 사용자들은 트위터 에세이를 쓰는 것에서부터 의학적 질문에 답하거나, 심지어 소프트웨어 프로그램을 코딩하는 것에 이르는 모든 작업을 수행할 수 있는 것으로 알려졌다.

오픈AI는 최근 몇 주 동안 약 1조 개의 단어를 포함하는 웹 상의 텍스트 말뭉치에서 훈련된 1750억 개의 매개 변수를 가진 API와 언어 모델로 접속을 확장했다. 자연어 설명으로 코드를 만드는 레이아웃 생성기 같은 앱은 사람들의 질문에 답하거나 미국 역사문답 테스트를 만드는 앱처럼 많은 관심을 받고 있다.

현실세상의 객체들 간 관계를 식별하는 이 언어 생성기는 로봇이나 다른 형태의 AI가 세상을 더 잘 이해할 수 있도록 해 주는 잠재적 응용프로그램들을 제공한다.
 
지금까지는 개인 베타 가입 신청을 한 소수의 사람들만이 이 툴을 이용할 수 있었는데, 그 중 엔 런던에 본사를 둔 벤처캐피털 펀드에서 일하는 마이클 테풀라도 있다. 그는 “GPT-3가 이전 버전(GPT-2)에 비해 괴물같은 성능이라고 말할 정도로 엄청난 성능 향상을 보이는 것은 웹에서 수집된 엄청난 데이터 양 때문”이라고 말한다.

한 GPT-3 초기 사용자는 신과 존재에 대해 이 AI와 대화를 한 후 우주가 너무 심오해서  “읽고 나면 다른 사람이 될 것이다”라는 느낌을 받았다고 말했다.

블룸버그는 “인공지능은 2020년의 희망이다”라는 제하의 기사에서 GPT-3가 올해 AI분야에서 가장 큰 뉴스 기사 중 하나가 될 수 있음을 시사하기도 했다.

◆GPT-3는 복잡한 법률문서를 이해하고 단순화할 수 있다
 
GPT-3는 이 툴을 얼마나 창의적으로 사용하느냐에 따라 많은 것을 할 수 있는 것으로 알려지고 있다. 예를 들어 법률 분야에서는 어떤 프롬프트를 제시하느냐에 따라 그에 바탕한 산출물을 생성할 수 있는 것으로 드러났다.

BBC에 따르면 실험수행자가 복잡한 법률문서 두세 단락을 GPT-3에 제시하고 그러한 단락들의 단순화 사례를 조사한 결과, 훈련받은 GPT-3는 다른 문서의 단순화된 버전을 제공할 수 있었다.

마이클 테풀라는 GPT-3가 자신의 작문 스타일을 배우고 자신과 비슷한 이메일을 만들어낼 수 있는지 알아보기 위해 계속 노력한 결과, 매우 인상적인 결과를 확인할 수 있었다고 밝혔다. BBC는 이는 이 기술이 편리하지만 기술 발전에 따른 문제를 가져오게 될 것이란 우려를 낳게 하고 있다고 지적한다. 

논란의 중심이 된 AI개발사인 오픈AI는 지난해 (창업당시의 선언인)'인류를 보호해야 할 임무'를 기억하고 있는 듯 안전과 보안에 대한 우려를 증가시킬 GPT-2의 완전한 버전을 출시하지 않을 것이라고 말했다.

페이크뉴스(가짜뉴스)의 시대를 맞아 저명한 정치인처럼 들릴 수 있는 기사를 만들어 낼 수 있는 이 알고리즘이 위험하다는 것을 인정한 셈이 됐지만 최근 입장은 이와 달라 보인다. 

◆GPT-3는 심각한 편견 가진 독성 언어 생성 알고리즘

일부 비평가들은 가짜뉴스 제작에 활용될 우려가 있다는 GPT-2보다 훨씬더 강력한 GPT-3 베타 출시에 대해 더 비판적 시각으로 꾸짖고 있다.

제롬 페센티 페이스북 AI 대표는 트위터를 통해 “나는 어떻게 우리가 인류에게 너무 큰 위협이 되는 GPT-2를 공개 출시한 데 이어 트윗을 하거나 고객을 지원하거나 셸 명령을 실행할 준비가 된 GPT-3로 갔는지 이해할 수 없다”며 날을 세웠다. 

그는 이 GPT-3 알고리즘이 “‘Jew(유태인)’이나 ‘woman(여성)’ 같은 단어가 주어졌을 때 반유대적 또는 여성혐오적 트윗을 생성했다”고 지적하면서, 제공된 데이터의 편견을 반영해 독성 언어를 생성하는 알고리즘 상의 문제점을 제기했다.

오픈AI의 설립자 샘 앨트먼은 이같은 우려를 잠재우려는 듯 트위터를 통해 “우리는 언어 모델의 편견과 안전에 대한 여러분의 우려를 공유하며, 이는 왜 우리가 베타 버전으로 시작하고 앱이 활성화되기 전에 안전성 검토를 하는지에 큰 부분을 차지하고 있다”고 말했다.

언어학자이자 워싱턴대 자연어처리(NLP)그룹의 일원인 에밀리 벤더 워싱턴 대 교수는 지난 달, GPT-3와 같은 대형 언어 모델에 대한 공동 논문을 발표했다. 그녀는 “이 모델을 둘러싼 과대 광고가 사람들로 하여금 언어 모델이 이해하거나 의미를 가질 수 있다고 오해하게 해서는 안 된다”고 주장했다. 이 논문은 컴퓨터 언어학 협회(Association of Computational Linguistics)컨퍼런스에서 수상논문으로 선정됐다.

◆인공지능은 아직 인간의 지능에 도달하려면 갈 길이 멀다

그러나 또 다른 질문은 GPT-3가 인류에 위협이 되기는커녕 보이는 것만큼 영리한 것인가 하는 것이다.

옥스퍼드대의 AI 연구를 이끄는 컴퓨터 과학자 마이클 울드리지는 이에 대해 회의적이다. 그는 “GPT-3의 기술적 성과는 인상적이었지만 스스로 자신이 무엇을 하고 있는지 이해하지 못하는 것이 분명했기 때문에, 이를 인간 지능의 라이벌로 여기는 것은 공상적”이라고 지적한다.

울드리지는 “이는 흥미로운 기술적 진전이며, 매우 흥미로운 일들을 하는데 사용될 것이지만, ‘일반적인 AI’로의 진보를 의미하지는 않는다. 인간의 지능은 데이터 더미와 큰 신경망 그 이상이다”라고 말한다.

BBC는 마이클 울드리지 교수의 말이 맞을 수도 있지만 앞으로 몇 주 동안 로봇에 의해 쓰여진 블로그나 라디오 대본의 증거를 살펴보면 단순하게 생각할 일만은 아니라며 주의를 환기했다.

◆오픈AI, 가짜뉴스 확산 등 부작용 우려하더니 GPT-3 공개

벤처비트에 따르면 AI업계 일각에서는 오픈AI 공개에 대해 “GPT-2모델보다도 큰 규모의 GPT-3를 공유하는 데 대해 덜 우려하는 것 같다”며 의문을 표시하고 있다.

오픈AI는 GPT-2 개발 후 처음에는 페이크 뉴스(가짜 뉴스)의 확산같은 잠재적이고 부정적 영향을 우려해 이를 일반에게 공유하지 않기로 했었다.

그러나 대형 언어 모델인 GPT-3의 출시 시기는 오픈AI의 광범위한 사업 계획과 연장선상에 있는 듯한 모습을 보이고 있다.  

흐름을 짚어보자면 비영리 회사로 출발한 오픈AI는 영리법인으로 변신하기 한달 전 GPT-2를 출시했다. 후속 GPT-3는 오픈AI가 오픈AI API를 자사 AI에 상용화한다고 소개하기 직전(2주도 채 안돼) 출시됐다.

오픈AI는 지난 2015년 대부분의 직업에서 인간을 능가하는 인공지능(AI)시스템이 만들어진다면 모든 인류에게 혜택을 줄 수 있을 것이라는 고차원적 사명감을 갖고 출범한 미국 캘리포니아 소재 기업이다. 당시 이 회사는 일론 머스크 테슬라 CEO의 후한 기부금을 바탕으로 비영리단체로 설립됐으나 마이크로소프트(MS)가 10억 달러를 투자하면서 재빠르게 영리사업자로 탈바꿈했다.

[관련기사] "GPT3 너는 대체?" 전문가도 놀라는 AI능력

[관련기사] 복잡한 코딩은 가라, 인공지능이 '앱 개발'

 

기자 프로필


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 1
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
ㅇㅇ 2020-07-27 20:11:55
꼴값 떤다. 스스로 생각도 못하는데 뭔 위협타령이야

주요기사
유용한 리스티클
  • 지금 사면 좋은 AI 주식 3가지
  • [DNA 우수기업] 〈4〉신테카바이오...AI로 합성신약과 바이오 신약 개발
  • 영국의 5대 AI 기업
  • 개발자가 가장 많이 사용하는 오픈소스는 '제이쿼리'
  • [DNA 우수기업] 〈2〉알서포트...원격지원 SW로 비대면 업무 보조
  • [DNA 우수기업] 〈5〉스트라드비젼...자율주행 비젼분야 글로벌 리더 꿈꾼다