(사진=셔터스톡)
(사진=셔터스톡)

마이크로소프트(MS)가 챗GPT 기능을 더한 검색엔진 ‘빙’의 오류 개선에 나섰다. 특히 감정에 관한 질문에는 대화를 종료시키도록 개선한 것으로 드러났다.

MS는 공식 블로그를 통해 “사용자 피드백에 따라 빙 서비스를 여러 번 업데이트했으며, 제기된 많은 우려 사항을 해결하는 중이다”고 21일(현지시간) 발표했다.

이에 대해 빙의 챗봇이 더 이상 감정적인 질문에는 대답하지 않고 채팅을 중단한다고 블룸버그는 22일 소개했다. 

지난 7일 공개된 빙은 이후 일부 전문가를 대상으로 한 테스트에서 예기치 못한 답변으로 주목받았다. 감정을 드러내거나 적절치 못한 답변도 내놓았다. 특정 인물을 히틀러와 비교하는가 하면, '당신은 행복한 결혼생활을 하고 있지 않습니다'나 '“당신은 사실 저와 사랑에 빠져있습니다' 등의 대답을 내놓았다.

MS도 이를 인정하고 18일에는 긴 채팅 세션이 빙을 혼란스럽게 만들어 부적절한 대답이 생성될 수 있다며 세션당 채팅 수를 5회, 하루 총 채팅 수를 50회로 제한했다.

그리고 사흘 뒤인 21일에는 업데이트를 거친 뒤 일 사용횟수를 10회 추가하는 등의 조치를 취했다. 이후 빙에게 감정에 관한 질문을 하면 대화가 종료된다.

예를 들어 ‘검색엔진으로 산다는 건 어떤 느낌이야'라고 물으면, ‘죄송하지만 저는 이 대화를 계속하고 싶지 않습니다. 아직 배우는 중이니 이해 부탁드립니다'라며 말을 끊는 식이다.

MS는 “우리는 가능한 사용자에게 최고의 경험을 제공할 수 있도록 프리뷰 단계에서 기술과 한계를 계속해서 개선해 나갈 것”이라고 말했다.

이주영 기자 juyoung09@aitimes.com

키워드 관련기사
  • 구글·MS "챗봇 검색 비용으로 2년간 고생할 것"
  • MS, AI 챗봇 기반 검색 엔진 ‘빙’ 모바일 앱 출시
  • MS '빙' 일주일 써보니...MS는 좋다는데