(사진=셔터스톡)
(사진=셔터스톡)

오픈AI가 사용자들이 '챗GPT' 대화를 검색엔진에서 찾을 수 있도록 했던 실험적 기능을 중단했다. 사용자가 대화를 공유한 뒤 ‘검색 가능’ 옵션을 직접 켜야만 활성화되는 구조였지만, 사용자들이 민감한 정보를 의도치 않게 노출할 가능성이 크다는 이유로 실험을 조기 종료한 것이다.

오픈AI는 31일(현지시간) X(트위터)를 통해 “챗GPT 대화를 검색엔진에서 검색할 수 있게 만드는 기능을 중단했다”라고 발표했다.

“이번 기능은 너무 많은 사용자가 의도하지 않은 정보를 실수로 공개하게 만들 수 있었다”라고 철회 배경을 설명했다.

이 기능은 원래 사용자들이 유용한 챗GPT 대화를 외부에 공유할 수 있도록 돕기 위한 목적에서 기획됐다. 대화 하단의 ‘공유’ 버튼을 누른 뒤, 다시 ‘링크 생성’을 클릭하고 ‘검색 가능 여부’를 설정하면 해당 대화가 'https://chatgpt.com/share' 주소를 통해 외부에 노출되는 방식이다.

그러나, 구글이나 빙 등 검색엔진에 'site:chatgpt.com/share'와 같은 쿼리를 입력하면 수천건의 개인 대화가 검색되는 현상이 발생했다. 여기에는 이름이나 직장, 위치, 건강 상태 등 개인정보가 드러나는 내용도 포함돼 있었다.

실제로 한 사용자는 특정 직무에 맞춰 이력서를 수정해달라고 요청한 대화를 공유했는데, 대화 내용만으로도 해당 인물의 링크드인 계정을 쉽게 찾을 수 있을 정도였다.

또 다른 대화에서는 공격적 질문이나 음모론 성격의 콘텐츠, 장난조의 질문들까지 여과 없이 노출되면서 논란이 확산됐다. 한 사용자는 금속 포크를 전자레인지에 넣어도 되는지를 질문하다, AI에게 “악마를 소환하지 않고 전자레인지 사용하는 법”이라는 풍자적인 가이드를 만들어달라고 요구한 내용이 드러났다.

오픈AI는 “이 기능은 철저한 옵트인(opt-in) 구조였으며, 사용자가 원하지 않으면 검색 노출이 불가능했다”라고 강조했다. 하지만, 많은 사용자가 동작 원리를 이해하지 못했거나 개인정보 유출 가능성을 고려하지 못한 채 링크를 생성한 것으로 보인다.


이번 사건은 AI 기업들이 개인정보 보호 측면에서 허술해질 수 있다는 점을 보여준다는 평이다. 보안 전문가들은 “민감한 정보를 공유하게 만드는 과정은 단순한 체크박스가 아닌, 더 높은 진입장벽이 필요하다”라고 지적했다.

이에 앞서 2023년에는 구글도 AI 챗봇 ‘바드’의 대화 일부가 검색엔진에 노출되며 논란이 일었고, 메타는 최근 AI 비서 기능을 사용하던 사용자들의 일부 대화가 공공 피드에 게시되는 실수를 범한 바 있다.

특히 기업 사용자에게는 이번 사례가 더 심각하게 느껴질 수 있다. 오픈AI는 “기업용, 팀용 계정은 별도의 보안 체계를 갖추고 있다”라고 강조했다.

전문가들은 이번 사건을 계기로 기업이 AI 도입 시 철저한 개인정보 보호 기준과 AI 벤더에 대한 검증 체계를 갖춰야 한다고 조언했다. ‘누가 대화에 접근할 수 있는지’ ‘데이터가 제3자에 의해 수집되거나 검색될 가능성은 없는지’ ‘유출 사고 발생 시 얼마나 빠르게 대응 가능한지’ 등을 반드시 체크해야 한다는 것이다.

한 관계자는 “기능을 설계할 때는 ‘가장 덜 숙련된 사용자’가 실수할 가능성까지 고려해야 한다”라며 “AI 기술이 사회에 안착하려면, 혁신만큼이나 신중한 접근이 필요하다”라고 강조했다.

박찬 기자 cpark@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지