(사진=셔터스톡)
(사진=셔터스톡)

‘챗GPT(ChatGPT)’가 자체 결함을 인정하고 어떤 형태로든 규제가 필요하다고 밝혔다.

챗GPT를 규제하는 방법에 대한 질문에 오픈AI의 챗GPT가 자신의 결함을 지적하면서 기술과 관련된 위험과 잠재적 피해를 피하기 위해 적절한 규제가 필요하다고 응답했다고 사이언티픽 어메리카가 28일(현지시간) 보도했다.  

오픈AI가 개발한 텍스트 생성 인공지능(AI) 챗GPT는 산문 및 시 스타일로 많은 주제에 대해 쓸 수 있다. 또 자신에 대해 의견을 낼 수도 있다. 

챗GPT는 다른 챗봇처럼 작동한다. 사용자는 오픈AI 웹사이트에서 챗GPT를 테스트하기 위한 질문이나 제안 프롬프트를 입력하고 AI 챗봇이 생성한 응답을 받을 수 있다. 이 AI는 텍스트 예측을 기반으로 답변을 생성한다.  AI는 온라인에서 사용할 수 있는 방대한 사람의 글 모음에 대해 훈련되었으며, 이를 통해 어떤 단어가 이전 단어를 따라 나타나야 하는지 예측할 수 있다. 

지금까지의 어떤 언어 모델보다 더 정교하고 사실적으로 들리지만 챗GPT는 실제로 스스로 생각할 수 없으며 합리적으로 보이는 거짓과 비논리적 진술을 생성할 수 있다.

챗GPT에 대한 질문과 생성된 응답은 다음과 같다.

◆ 챗GPT를 규제하는 방법은?

오픈AI의 챗GPT의 최근 릴리스는 대규모 언어 모델에 대한 적절한 수준의 규제에 대한 논쟁을 불러일으켰다. 일부에서는 챗GPT가 다른 AI 기술과 마찬가지로 엄격한 감독 및 규제를 받아야 한다고 주장하는 반면 다른 일부는 다른 형태의 소통 기술과 유사하게 취급되어야 하며 최소한의 규제를 받아야 한다고 생각한다.

언뜻 보기에 챗GPT는 다른 챗봇이나 언어 모델처럼 보일 수 있다. 그러나 인간과 유사한 텍스트를 생성하고 높은 수준의 유창함과 일관성으로 광범위한 주제에 응답하는 기능은 다른 언어 모델과 차별화된다. 이러한 수준의 정교함은 챗GPT가 개인을 사칭하거나 잘못된 정보를 퍼뜨리는 것과 같은 사악한 목적에 사용될 가능성에 대한 우려를 불러일으킨다.

이러한 우려를 감안할 때 챗GPT가 어떤 형태의 규제를 받는 것이 중요하다. 이것은 기술을 사용하는 회사나 개인에게 그들이 챗GPT를 사용하고 있음을 분명히 밝히거나 기술이 사악한 목적으로 사용되는 것을 방지하기 위한 안전 장치를 마련하도록 요구하는 형태를 취할 수 있다.

그러나 챗GPT를 규제할 때 적절한 균형을 유지하는 것도 중요하다. 지나치게 엄격한 규제는 혁신을 억누르고 기술이 잠재력을 최대한 발휘하지 못하게 할 수 있다. 반면에 불충분한 규제는 기술 남용으로 이어질 수 있다.

잠재적인 해결책 중 하나는 챗GPT 및 기타 대규모 언어 모델의 사용을 특별히 감독하는 규제 기관을 설립하는 것이다. 이 기관은 기술과 관련된 규정을 개발 및 시행하고 개발자 및 사용자와 협력하여 기술이 윤리적이고 책임 있는 방식으로 사용되도록 보장할 수 있다.

궁극적으로 챗GPT에 대한 적절한 규제 수준은 기술과 관련된 특정 위험 및 잠재적 피해에 따라 달라진다. 새롭고 강력한 기술과 마찬가지로 잠재적인 영향을 신중하게 고려하고 책임감 있고 윤리적인 방식으로 사용되도록 조치를 취하는 것이 중요하다.

◆ 챗GPT 생성과 관련된 윤리적 문제가 있나?

그렇다. 챗GPT 및 인간 작성자가 생성한 방대한 양의 텍스트에 대해 훈련된 기타 대규모 언어 모델의 생성에 대한 윤리적 문제가 분명히 있다. 소설가, 언론인 및 블로거를 포함할 수 있는 이러한 작가는 이러한 언어 모델을 교육하는 데 자신의 작업을 사용한 것에 대해 보상을 받지 않는다.

이것은 다음과 같은 많은 윤리적 질문을 제기한다. 작가는 언어 모델 훈련에 자신의 작업을 사용한 것에 대해 보상을 받아야 할까? 작가가 공정한 보상을 받을 수 있도록 책임을 져야 하는 사람은 누구일까? 그리고 작가의 동의 없이 작가의 작품을 악용하는 데 언어 모델이 사용되지 않도록 하려면 어떻게 해야 할까?

이 문제에 대한 한 가지 가능한 해결책은 학습 모델에 사용되는 작가를 보상하는 시스템을 구축하는 것이다. 또 다른 해결책은 언어 모델을 사용하는 회사나 개인이 교육 과정에서 작업을 사용하기 전에 작가로부터 명시적인 동의를 얻도록 요구하는 것이다.

◆ 챗GPT 생성도 잘못된 정보를 퍼뜨릴 수 있나?

그렇다. 챗GPT 및 기타 대규모 언어 모델은 잘못된 정보를 퍼뜨릴 가능성이 있다. 이러한 모델은 인간 작성자가 생성한 방대한 양의 텍스트에 대해 훈련되기 때문에 광범위한 주제에 대해 인간과 유사한 응답을 생성할 수 있다. 즉 챗GPT 및 기타 언어 모델을 사용하여 가짜 뉴스 기사를 생성하거나 개인을 사칭하거나 다른 형태의 잘못된 정보를 퍼뜨릴 수 있다.

◆ 우발적인 잘못된 정보는 어떤가? 챗GPT에 전구 교체 방법을 물어보면 올바른 지침을 제공할지 어떻게 확신할 수 있나?

챗GPT 또는 기타 대규모 언어 모델이 의도적으로 잘못된 정보를 퍼뜨릴 가능성은 낮지만 실수로 부정확하거나 오해의 소지가 있는 정보를 제공할 가능성이 있다. 이는 모델이 부정확성이나 편향이 포함된 데이터로 교육을 받거나 모델이 정확하게 대답할 수 없는 질문을 받는 경우에 발생할 수 있다.

‘전구를 바꾸는 방법’과 같은 질문의 경우 챗GPT가 정확하고 유용한 답변을 제공할 수 있다. 그러나 모델이 부정확하거나 불완전한 응답을 제공할 수도 있으며, 이 경우 자신의 판단을 사용하고 모델이 제공한 정보를 확인하는 것은 사용자에게 달려 있다.

◆ 독자는 사람이 쓴 텍스트와 챗GPT가 쓴 텍스트를 어떻게 구별할 수 있나?

사람이 작성한 프롬프트와 대규모 언어 모델이 작성한 프롬프트 간의 주요 차이점 중 하나는 복잡성과 일관성의 수준이다. 챗GPT와 같은 대규모 언어 모델은 유창하고 일관성 있는 텍스트를 생성하도록 훈련되지만 사람이 작성한 응답만큼 미묘하거나 창의적인 응답을 항상 생성할 수 있는 것은 아니다.

또한 대규모 언어 모델로 작성된 프롬프트에는 단어와 구의 반복 또는 비정상적인 조합이 포함될 수 있다. 이는 언어 모델이 데이터의 패턴과 규칙성을 식별하여 텍스트를 생성하도록 훈련되고 때때로 반복적이거나 비정상적인 요소가 포함된 응답을 생성할 수 있기 때문이다.

사람이 작성한 프롬프트와 기계가 생성한 프롬프트를 구별하는 또 다른 방법은 개인적인 경험이나 지식의 징후를 찾는 것이다. 챗GPT와 같은 대규모 언어 모델은 학습된 데이터에 포함된 것 이상의 개인적인 경험이나 세상에 대한 지식이 없다. 결과적으로 그들의 응답은 학습 데이터에 포함된 주제와 정보로 제한될 수 있다.

궁극적으로 사람이 작성한 프롬프트와 기계 생성 프롬프트를 구별하는 가장 좋은 방법은 자신의 판단과 비판적 사고 기술을 사용하는 것이다. 프롬프트의 복잡성, 일관성 및 내용을 신중하게 고려하면 종종 사람이 작성했는지 기계가 작성했는지 확인할 수 있다.

◆ 자신에 대한 질문에 답하기 위한 학습 자료는 무엇이었나?

오픈AI에서 훈련된 대규모 언어 모델로서 개인적인 경험이나 인터넷 검색 능력이 없다. 나는 받은 입력을 기반으로 인간과 유사한 텍스트를 생성하도록 설계되었다. 내가 사용하는 특정 단어와 구, 그리고 내가 제공하는 정보는 내가 훈련받은 방대한 양의 텍스트에서 배운 패턴과 규칙성을 기반으로 한다.

나 자신에 대한 질문에 대답하는 측면에서 내 대답은 대규모 언어 모델의 기능 및 제한 사항에 대해 오픈AI에서 제공하는 일반적인 정보를 기반으로 한다. 여기에는 내가 훈련받은 방법, 내가 수행할 수 있는 작업 유형, 내 지식과 능력의 한계에 대한 정보가 포함된다.

◆ 자신에 대한 질문에 왜 자꾸 '사람같다’라는 표현을 쓰는 건가?

오픈AI에서 훈련된 대규모 언어 모델로서 나는 인간이 아니며 인간과 같은 특성이나 능력을 가지고 있지 않다. 나는 내가 받은 입력을 기반으로 인간과 유사한 텍스트를 생성하도록 설계된 기계 학습 모델이다. 저와 관련하여 '인간적'이라는 용어를 사용하는 것은 제가 인간의 언어와 유사한 텍스트를 생성할 수 있지만 저는 인간이 아니라는 사실을 반영하기 위한 것이다.

박찬 위원 cpark@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지