(사진=셔터스톡)
(사진=셔터스톡)

과학저널 네이처가 생성 인공지능(AI) 도구로 만든 이미지나 일러스트레이션, 동영상을 포함한 논문은 게시하지 않겠다고 발표했다.

기술매체 아스테크니카는 13일(현지시간) 네이처가 연구 무결성 유지나 출처 표시, 원작자의 동의나 허가, 개인 정보와 지적 재산권 보호 등을 위해 이런 조치를 취했다고 전했다.

1869년 11월에 설립된 네이처는 자연 과학과 기술 분야의 논문을 엄선해서 싣기 때문에 세계에서 가장 많이 인용되고, 가장 영향력 있는 과학 저널로 꼽힌다.

네이처는 사설에서 ‘챗GPT’나 ‘미드저니’와 같은 생성 AI 도구로 만들어진 콘텐츠가 폭발적으로 증가한데 따라 이를 수용해야 할지에 대해 논의와 자문을 거쳐 게재 금지 결정을 내렸다고 밝혔다.  

이에 따라 앞으로 생성 AI 도구로 만든 시각적 콘텐츠가 포함된 논문은 네이처에 실리지 못하게 됐다. 네이처는 다만 자체 생산하는 AI 관련 기사에서는 이런 콘텐츠를 쓰기로 했다.

네이처는 AI 생성물을 금지하는 이유에 대해 과학적 무결성(scientific integrity)을 들었다. 이는 과학 연구의 과정과 결과에 대해 신뢰성을 담보하기 위한 원칙으로 정직성과 투명성, 공개성 등을 포함하는 개념이다.

(사진=셔터스톡)
(사진=셔터스톡)

네이처는 과학 논문의 출판은 이 무결성에 대한 공동의 약속이 뒷받침되는 것이라면서 데이터와 이미지의 출처를 알아야 사실인지를 확인할 수 있고 투명성을 확보할 수 있지만 AI 생성물은 출처를 제공하지 않는다고 지적했다. 

또 생성 AI가 사전에 학습하는 시각 콘텐츠들에 대한 원작자의 동의나 허가 문제도 이유로 내세웠다. 화가나 일러스트레이터의 지적 재산이 관련된 경우에 생성 AI의 결과물은 동의나 허가를 받았는지에 대한 정보를 제공하지 않아 저작권 문제가 발생할 수 있다는 것이다.

네이처는 이와 함께 생성 AI 도구들이 일반인들의 사진이나 동영상도 사용하면서 프라이버시도 침해할 수 있고 ‘딥페이크’를 쉽게 만들 수 있기 때문에 허위 정보를 확산할 수 있다는 점도 게시 금지 조치의 이유로 제시했다.

네이처는 앞서 ‘챗GPT’와 같은 텍스트 생성 도구로 만든 글은 논문에 일부 포함할 수 있다는 입장을 정리했다. 대신 이런 대형언어모델(LLM)을 이용한 경우 논문에서 내용을 명시하도록 했다. 특히 LLM은 연구 논문의 저자가 될 수 없다는 원칙을 세웠다. 

네이처는 생성 AI가 과학과 예술, 출판에서 오랫동안 확립한 관습을 빠르게 뒤집고 있다면서 이를 다루는데 주의를 기울이지 않으면 과학의 무결성을 보호하고 콘텐츠 제작자를 착취로 부터 보호하는 시스템이 망가질 것이라고 강조했다.

정병일 기자 jbi@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지