구글의 'AI 개요'가 인용하는 자료 중 10%가 다른 AI가 작성한 문서라는 조사 결과가 나왔다. 이는 AI가 스스로 생성한 콘텐츠를 다시 활용하는 ‘순환 고리’ 현상을 초래해, 정보 신뢰성과 품질 저하에 대한 우려가 제기되고 있다.
인공지능 AI 탐지 소프트웨어 기업 오리지낼리티AI는 7일(현지시간) 건강과 재정, 법률, 정치 등 삶에 큰 영향을 주는 YMYL(Your Money or Your Life) 카테고리에 속하는 검색어 2만9000건을 분석한 결과, AI 개요가 인용한 링크의 10.4%가 대형언어모델(LLM)이 생성한 콘텐츠인 것으로 확인됐다고 전했다.
연구진은 “고위험 분야에서조차 AI 생성물이 인용되는 것은 심각한 신뢰성 문제”라며 “이런 순환은 결국 모델 붕괴(Model Collapse)로 이어질 수 있다”라고 경고했다.
이런 현상은 그리스 신화에 나오는 자기 꼬리를 먹는 뱀 우로보로스(ouroboros)에 비유된다. 자기 몸을 먹어 치우는 동시에 재생하는 것을 끝없이 반복하는 모습으로 그려진다.
오리지낼리티AI가 추적한 AI 개요 인용 출처 중 나머지 74.4%는 인간이 작성한 콘텐츠로 확인됐다. 나머지 15.2%는 ‘분류 불가’ 범주에 넣었는데, 여기에는 분석하기에는 너무 짧은 인용문, 동영상 형태, PDF 문서, 깨진 링크 등이 포함됐다.
더 흥미로운 점은, AI 개요에서 정상적으로 작동한 링크 가운데 52%가 구글 검색 결과 상위 100개 페이지에 포함되지 않았다는 것이다. 이들 52% 중에서도 12.8%가 AI 생성 콘텐츠로 식별됐는데, 이는 전체 평균치인 10.4%보다 높은 비율이다.
이에 대해 구글은 “오리지낼리티AI가 사용한 AI 탐지기의 정확성이 입증되지 않았다”라며 이번 조사 결과를 부인했다.
또 AI 개요 인용 출처가 항상 검색 상위 결과와 일치하는 것은 아니며, 다양한 쿼리를 확장해 가장 적합한 정보를 찾는 ‘쿼리 팬 아웃(query fan out)’ 방식을 적용한다고 설명했다.
전문가들은 AI 개요가 기존 검색보다 더 다양한 형식의 자료를 인용할 수 있다는 장점도 인정한다.
그러나 동시에 AI가 생성한 콘텐츠가 검색 생태계에 과도하게 유입되면, 인간이 만든 신뢰할 수 있는 정보가 설 자리를 잃고 인터넷 전반의 품질이 저하될 위험이 있다는 지적도 나온다.
박찬 기자 cpark@aitimes.com
