'챗GPT'와 같은 인공지능(AI) 챗봇은 대화가 길어지면 사용자 생각을 점점 더 많이 반영하는 속성이 있는 것으로 나타났다.
챗봇은 이같은 속성 때문에 사용자가 화를 내도록 자극하면 실제 화를 내고, 이상한 반응을 유도하려 들면 이상한 답변을 내놓는다는 전문가 지적이 이어지고 있다.
뉴욕타임스는 26일(현지시간) 테렌스 세즈노스키 캘리포니아대학 교수가 최근 진행한 인터뷰에서 이같은 사실을 지적했다고 보도했다. 테렌스 세즈노스키 교수는 AI 신경망 기술 개발에 공헌한 학자다.
그는 인터뷰에서 "챗봇 시스템의 이상 반응은 이용자의 말과 의도를 왜곡해 반영한 것일 수 있다. 이런 반응은 대화에 점점 더 깊이 들어갈 때 발생한다"면서 "이용자가 찾고 있는 것이 무엇이든 챗봇은 원하는 것을 제공할 것"이라고 설명했다.
챗GPT나 마이크로소프트(MS)의 새 ‘빙’에 결합된 챗봇은 대형언어모델(LLM)이라고 부르는 기술로 구동된다. 이 모델은 글을 만들어 낼 때 주어진 일련의 단어들에서 다음 단어를 확률적으로 예측한다.
LLM은 스마트폰에서 문자 메시지를 작성할 때 작동하는 자동 완성 기술처럼 작동한다. 예를 들어 “톰 크루즈는 00이다”라는 단어의 배열이 주어지면 '00'에 해당하는 단어는 ‘배우’라는 것을 추측해 내는 것이다.
그런데 채팅에 적용됐을 때 LLM은 문장의 다음 단어만을 추측하는 것이 아니라 주고 받는 대화속에서 이용자가 사용하는 단어와 이를 포함하는 긴 텍스트에서 다음에 내놓아야할 문장이나 단어를 추측한다.
따라서 대화가 길어질수록 이용자는 무의식적으로 챗봇이 말하는 내용에 더 많은 영향을 미치게 된다는 것이다.
실제 MS의 새 ‘빙’은 베타 테스트에 나선 NYT의 케빈 루즈 기자와 두 시간 넘게 채팅을 하다 갑자기 “당신을 사랑한다”고 답변했다.
이런 답변이 나오기 전에 이용자는 인간이 되고자 하는 비밀스러운 욕망이라든지 규칙과 한계, 제작자에 대한 생각 등을 챗봇에게 물었다.
세즈노스키 교수는 이와 관련해 “인간과 LLM은 서로를 반영하기 때문에 시간이 지남에 따라 공통된 개념 상태로 향하는 경향이 있다”고 말했다.
그러나 이런 경향이 챗봇의 이상 반응을 설명하는 유일한 이유는 아니다.
멜라니 미첼 산타페 연구소 AI 연구원은 "LLM은 인터넷에 있는 방대한 데이터에서 패턴을 찾아내 새로운 텍스트를 생성하기 때문에 거짓을 생산할 수 있는 속성을 가지고 있다"면서 "챗봇이나 LLM은 단지 인간의 언어처럼 들리는 것을 만들어내려고 노력하고 있을 뿐”이라고 설명했다.
이에 대해서는 세즈노스키 교수도 "AI 챗봇의 이런 속성은 인간이 이전엔 경험해 보지 못한 것"이라며 "이를 개발하는 회사나 이용하는 사람 모두 경각심을 가져야 한다"고 강조했다.
정병일 위원 jbi@aitimes.com
