고객 응대 분야 AI 사과 시스템 증가 추세
진심 여부가 아닌 사과 표현이 핵심
책임 막중한 자율주행차는 판단 이유 설명 중요

(사진=셔터스톡)
(사진=셔터스톡)

“안녕하세요 ○○○고객님. 9월 27일 신청하신 대출 심사 결과 저희 A사에서는 고객님께 대출금을 지급할 수 없다고 결정했습니다. 이와 같은 결과를 전하게 되어 진심으로 유감을 표합니다.”

기업이 고객 대응 시 흔히 사용하던 “죄송합니다. 고객님”이라는 멘트를 AI 시스템도 탑재하기 시작했다. 보험·대출 자격 심사, 영상물 검수 업무를 담당하는 AI 시스템이 부정적인 판단결과를 전할 경우 고객의 기분을 고려해 사과를 전하는 식이다.

AI·머신러닝 전문가 랜스 엘리엇은 27일(현지시각) 포브스지에서 “AI 사과 시스템 도입이 늘어나는 추세”라며 사과하는 AI 도입 필요성을 강조했다.

AI 사과 시스템 반대자들은 감정이 없는 AI가 전하는 사과는 진정성이 없어 무의미하다고 비판한다. 엘리엇은 “메시지를 전하는 주체가 감정이 있는 사람일지라도 ‘진정한’ 사과인지에 대해서는 알 수 없다. 사과 표현 자체가 고객에 어필한다는 사실이 중요한 것”이라고 말했다.

특히, 자율주행차와 같이 복잡한 환경 속 다양한 변수를 고려해 AI 판단이 이뤄지고 사고 위험으로 책임이 큰 분야에서는 AI 사과와 함께 결정 이유를 설명하는 것이 중요하다는 의견이다.

그는 “AI가 운전을 완전히 담당하는 상황에서 도로 주변 인도에서 비틀거리는 보행자를 인식했다고 가정하자. 얼마 뒤 이 사람이 자율주행차가 있는 도로에 뛰어들 것인지는 AI도 알 수 없다. AI는 결국 브레이크를 밟는 결정을 내렸지만 보행자가 도로로 뛰어들지 않을 수도 있다. 이와 같은 경우 탑승자는 AI의 결정 이유가 궁금할 것”이라고 설명했다.

AI 결정이 초래한 결과에 따라 사과의 정도도 나눌 것을 제안했다. AI가 브레이크를 밟은 것이 단순히 탑승자 기분을 상하게 했을 때는 약한 정도의 사과, 탑승자가 이가 뽑힐 정도로 외상을 입었다면 보다 높은 정도의 사과와 상황에 대한 설명이 필요하다는 것이다.

한편, 랜스 엘리엇은 AI 시스템의 사과를 AI의 실수와 책임으로 해석해 법적인 갈등 여지가 증가할 가능성을 염려했다.

그는 “현재 많은 사람들이 AI 시스템의 사과를 증거로 소송을 진행 중에 있다. AI가 사과를 했고 잘못을 인정했으니 AI 제작자에게 책임이 있다는 것”이라고 말했다.

 

[관련기사] 네이버, AI 고객센터 '클로바 해피콜' 출시

[관련기사] 웨저, 병원챗봇 '의사소통 AI' 정식 출시