연구소측, '오용의 증거는 없다'고 밝혀

▲ (사진=셔터스톡) ©AI타임스
▲ (사진=셔터스톡) ©AI타임스

(AI타임스=윤광제 기자) 연구소 ‘오픈AI’가 전문가들이 악의적인 목적으로 사용할 수 있다고 경고한 텍스트 생성 AI 시스템 풀 버전을 공개했다.

이 연구소는 당초 올해 2월 GPT-2라는 시스템을 발표했으나 가짜뉴스, 스팸, 허위사실 유포에 이용될 것을 우려해 이 프로그램의 정식 버전 출고를 보류했다. 이후, 연구소는 GPT-2의 작고 단순화된 버전을 출시하고 성능에 대해 연구한다.

다른 사람들 또한 이 작품을 복제했다. 오픈AI측은 블로그를 통해 현재 “오용의 강력한 증거가 없다”고 밝히고, 이 모델을 전면 출시했다.

▲ GPT-2에서 고장 진단, 스토리지, 위치 및 코드 기록
GPT-2는 최소한의 프롬프트로 일관적인 텍스트를 생성하는 능력으로 전문가들에게 깊은 인상을 준 새로운 종류의 텍스트 생성 시스템의 일부다. 이 시스템은 웹에서 스크랩된 800만 개의 텍스트 문서에 대한 교육을 받았고 사용자가 제공한 텍스트 스니펫에 응답했다.

연구소는 “예를들어 가짜뉴스의 헤드라인을 제공하면 GPT-2는 뉴스 기사를 쓸 것이고, 시의 첫 줄을 주면 시를 지어낼 것”이라고 성능에 대해 설명했다.

연구소측에 따르면, GPT-2의 출력이 얼마나 좋은지를 정확하게 전달하는 것은 어렵지만 이 모델은 종종 지성인 수준의 지적인 글을 생산한다. 다만 이 시스템을 오랫동안 사용하다 보면 그 한계가 명확해진다고 전했다.

기계는 특히 한 이야기에서 등장인물의 이름과 속성을 일관되게 사용하거나 뉴스 기사에서 하나의 주제를 고수하는 등 일관성이 지나치다는 지적이다

GPT-2의 원초적 능력과는 별개로 ‘이 모델이 생산해내는 것으로 야기되는 피해에 대해 완화시킬 방안을 마련해야 한다’는 책임은 지속적인 논쟁이 될 것으로 보인다.

전문가들은 일반인도 첨단 AI 도구에 쉽게 접근이 가능하다면 악의적인 이용자들 또한 접근이 쉬울 것이라고 지적했다. 오픈AI는 이러한 우려 때문에 모델 출시를 제한했던 것이다.

그러나 모든 사람이 연구소의 접근에 박수를 보낸 것은 아니었다.

다른 많은 전문가들은 “연구소의 결정이 다른 사람들에게 연구의 양을 제한하고, 그것이 인공지능의 위험에 대한 불필요한 과대 광고를 만들었다”고 비판했다.

연구소의 한 연구원은 지난 2월 '베르지'에 "너무 위험한' 단어들이 많은 연구나 실험 없이 무심코 던져졌다"고 말했다. 그는 또 "오픈 AI가 실제로 위험하다는 것을 증명하는 데 충분한 시간을 보냈다"고 주장했다.

▲ AI 연구진, 유해 프로그램 공유 윤리 논란
AI로 구동되는 이 자동 완성 소프트웨어는 Gmail의 코더를 위한 스마트 컴포지션이다.

이번 풀모델 발표에서 오픈AI는 ‘GPT-2가 악용될 수 있다고 지적’하면서도 ‘이 시스템이 극단적인 입장에 대해 '연합 전선'을 펼치는데 도움이 될 수 있다’는 제3자 연구 결과를 인용했다.

하지만 이 시스템이 소셜 미디어와 같은 온라인 정보 시스템을 압도하면서 일관성 있는 스팸을 대량으로 퍼내는 데 사용될 것이라는 두려움이 아직 가시지 않았다는 것을 인정했다.

연구소는 또 자체 연구진이 GPT-2의 출력을 95% 정확도로 파악할 수 있는 자동 시스템을 만들었지만 이 수치는 ‘독립형 탐지’를 위해 충분히 높지 않으며, 가짜 텍스트를 자동으로 찾아내는 데 사용되는 시스템은 인간 판사와 협력을 이뤄야 한다는 것을 의미한다고 지적했다.

그러나, 이러한 절제 작업은 ‘가짜 이미지와 비디오를 발견하기 위해 종종 루프에 있는 인간에 의존하는 방식으로 특별히 드문 일은 아니다’는 분석이다

【에이아이타임스 aitimes 에이아이타임즈】

키워드 관련기사
  • 오픈AI, 자연어 처리(NLP) 모델용 API 출시