AI 생성 텍스트 식별을 위한 암호화 기반 키 삽입
"향후 수익 모델이 될 수도"

챗GPT가 생성한 텍스트에 워터마크가 도입될 전망이다. (사진=셔터스톡)
챗GPT가 생성한 텍스트에 워터마크가 도입될 전망이다. (사진=셔터스톡)

오픈AI가 ‘챗GPT’가 생성한 콘텐츠를 식별하기 위해 워터마크를 도입한다.

스콧 아론슨 오픈AI 객원연구원 겸 텍사스대 교수에 따르면 오픈AI는 챗GPT와 같은 시스템이 텍스트를 생성할 때마다 텍스트의 출처가 인공지능(AI) 임을 표시하는 워터마크 삽입 도구를 개발 중이라고 워싱턴포스트(WP)에 12일(현지시간) 보도했다.

오픈AI의 텍스트 생성 시스템인 챗GPT는 뛰어난 창작 능력으로 사람이 작성한 것과 구별하기 어려운 콘텐츠를 작성해 왔다. 챗GPT는 재미있고 유용하지만 반면 윤리적 문제도 발생시킨다. 기존의 많은 텍스트 생성 시스템과 마찬가지로 챗GPT는 고품질의 피싱 이메일이나 멀웨어를 작성하거나 학교 과제에서 부정 행위를 하는 데 사용될 수 있다.  

AI가 좋아질수록 인간과 기계가 만든 텍스트를 구분하기가 더 어려워진다. 시간이 지날수록 온라인에서 실제 정보와 가짜 정보가 뒤죽박죽 섞여서 혼란에 빠질 수 있다. 

따라서 AI로 생성한 텍스트에는 스톡 사진 판매자가 이미지를 보호하고 영화 스튜디오가 불법 복제를 방지하는 방법과 같은 일종의 워터마크가 필요하다고 WP는 지적했다. 

오픈AI는 이미 이미지 생성 AI '달리'가 생성하는 각 이미지에 레이블을 지정하는 방법을 개발했다. 그러나 이미지와 다르게 생성된 텍스트에 출처를 추적하기 위해 제거할 수 없는 레이블을 붙이는 것은 훨씬 어렵다.

아론슨 교수는 가장 유망한 접근 방식으로 '암호화'를 꼽았다. 챗GPT와 같은 시스템은 입력 및 출력 텍스트를 ‘토큰’ 문자열로 이해한다. 텍스트를 구성하는 단어들은 구두점, 문자 또는 단어의 일부를 나타내는 일련의 토큰으로 변환되어 총 약 10만개의 토큰을 구성할 수 있다.

그다음 챗GPT 시스템은 오픈AI에만 알려진 암호화 키를 사용, 감지할 수 있는 방식으로 해당 토큰의 배열을 결정한다. 즉 결정된 토큰 배열이 보이지 않는 워터마크 역할을 한다. 다른 AI 시스템을 사용해 다른 말로 바꾸지 않는 한 숨겨진 워터마크를 제거하기는 어렵다.

챗GPT는 최근 너무 많은 사람들이 몰려들어 수차례 다운됐다. (사진=오픈AI)
챗GPT는 최근 너무 많은 사람들이 몰려들어 수차례 다운됐다. (사진=오픈AI)

그러나 이 방법이 잘 작동한다고 하더라도, 워터마크 키의 공개 여부가 문제가 될 수 있다는 점도 지적했다. 키를 공개하면 모든 교수는 해당 소프트웨어를 통해 학생의 에세이가 기계에서 생성되지 않았는지 확인할 수 있다. 그러나 악의적인 행위자가 워터마크를 감지하고 제거할 수도 있다.

키를 비공개로 유지하는 것은 오픈AI의 비즈니스 모델이 될 수 있다. 사이트 관리자는 피싱 공격에 대비해 수신 이메일을 스캔하기 위해 구독료를 지불할 수 있고, 대학은 교수를 위해 그룹 비용을 지불할 수 있다. 

도구 사용 비용은 랜섬웨어 공격과 허위 선전 유포를 취소할 수 있을 만큼 충분히 높아야 한다. 그러면 오픈AI는 생성된 텍스트의 오용을 방지함으로써 수익을 올리게 된다.

이런 이유로 아론슨 교수는 “오픈AI가 워터마킹이 잘 작동하고 생성된 텍스트의 품질에 영향을 미치지 않는다는 것을 입증할 수 있다면, 이는 업계 표준이 될 가능성이 있다”고 말했다.

박찬 위원 cpark@aitimes.com

키워드 관련기사
  • 중국도 '챗GPT 붐' 합류...생성 AI 개발 박차
  • 중국, 워터마크 없는 AI 생성 이미지 금지
  • 거짓도 사실처럼 답변하는 인공지능 '챗GPT'