▲인공지능은 미래가 아니다, 이미 현재에 존재하고 있다. (출처=123RF)

자율주행차량 등 첨단기술분야부터 헬스케어 등 실생활까지 우리는 삶 곳곳에서 이미 AI의 도움을 받고 있다. 최근에는 AI를 통해 범죄를 미연에 방지하고, 환자의 뇌졸중이나 심장마비와 같은 예기치 않은 결과를 막는데도 활용되는 추세다. 이렇듯 전문가들은 인공지능(AI) 기술이 더 이상 먼 미래의 이야기가 아니라고 강조한다.

그런데 인공지능에 대한 신뢰가 AI 시스템의 성패를 좌우할 것이라는 주장이 제기되 관심을 모으고 있다.

▲AI의 미래는 사용자들의 신뢰에 달려있다. (출처=123RF)

AI 시스템의 신뢰성

AI가 사용자의 신뢰를 바탕으로 성공률이 바뀔 수 있다는 주장은 컨설팅 회사 PwC의 아난드 라오 CEO에 의해 제기됐다. 그는 “AI의 미래는 바로 사용자들의 신뢰에 달렸다”며 의료 분야에 적용된 AI를 예를 들어 설명했다.

AI는 환자의 질병 초기 단계를 탐지할 수 있는 잠재력을 내포하고 있다. 동시에 시스템 오류로 오진할 위험 또한 존재한다. 그러나 이러한 부분을 지나치게 경계하면 환자의 건강은 시간이 지남에 따라 악화될 것이다. 따라서 AI 시스템을 진단 도구로 사용하기 위해서는 의사뿐만 아니라 환자도 기술을 신뢰해야만 한다.

컴퓨터 제조 기업인 IBM은 AI가 사람을 대신할 수 있는지 신뢰의 수준을 알기 위해 AI 과학자 30명을 대상으로 인터뷰를 진행했다. 과학자들은 사람들이 AI를 믿게 하려면 시스템 개발·운영에 투명성이 보장돼야 하며 AI에 ‘도덕심’을 심어줘야 한다고 말했다.

“편견, AI에도 영향 미쳐”

 

 

IBM 리서치의 아빈드 크리슈나 이사는 AI를 개발할 때 적절한 관리를 하지 않는다면 프로그래머가 가지고 있는 편견이 결과에 영향을 미칠 수 있다고 말했다.

IBM의 바나바르 최고과학책임자는 올바른 데이터세트를 선택할 때 관리의 부족으로 인해 의도치 않은 편견이 생길 뿐만 아니라 악의적인 해커의 공격으로 인해서도 편견이 생갈 수 있다고 설명했다.

▲AI를 신뢰하는 게 가능한 이유는 일상 속에서 직접 경험할 수 있기 때문이다. (출처=123RF)

신뢰, 아직은 구축 단계

 

* 경험 - 옥스포드대학의 비아체슬라프 폴론스키 박사는 “사람들이 기술을 많이 사용할수록 그에 대한 부정적인 태도를 고쳐야 한다”며 “AI 시스템을 제공하는 개발업체 및 기업들도 보다 투명하게 업무를 해야 할 것”이라고 말했다. 그는 구글이나 트위터의 투명성 보고서 발표를 예를 들며, AI 시스템에도 이 같은 제도를 적용해야 한다고 강조했다.

*통찰력 - IBM도 ‘투명성’이 AI 시스템 개발의 핵심으로 여기고 있다. AI 전문가들은 대중들이 AI가 추천이나 결론을 도출하는 방식, 즉 알고리즘을 이해해야 한다고 말했다. 그리고 이를 통해 신뢰가 구축될 수 있다고 덧붙였다.--

동시에, 투명성은 기계뿐만 아니라 AI 애플리케이션 개발자에게도 적용돼야 한다. AI 시스템은 사용자와의 상호작용이 필요해서 그것을 만드는 사람이 먼저 투명하게 작업을 해야 한다. 기술을 신뢰하는 사람들을 위해, 개발자들은 사용자들이 불편함을 느끼거나 좋아하지 않을 때마다 일부 기능을 끌 수 있는 기능을 부여해야 한다고 AI 전문가들은 제안하고 있다.

*통제 - ‘알고리즘 혐오감 극복하기’라는 독립 연구에 따르면, 사용자들은 자신의 결정을 통해 알고리즘을 수정할 수 있는 기능만 있다면 ‘불완전한’ 알고리즘을 선택한다. 따라서, 사람들이 최소한의 정보를 제공받고 AI 시스템을 제어할 수 있다면 생활 속에 AI 기술을 더욱 적극적으로 받아들이게 될 수 있을 것이다.

라오 CEO는 “최고의 AI 시스템을 구축하려는 어느 조직이든 사람들이 그 책임과 역할을 정확하게 알고 준수해야 할 필요가 있다”고 덧붙였다.