▲전문가들은 인공지능의 올바른 활용을 강조하며 오남용에 대해 경각심을 가져야 한다고 지적한다(출처=게티 이미지)

인간이 가장 오랫동안 점유해왔던 일자리를 마침내 로봇과 인공지능에게 빼앗길지도 모른다는 우려가 오늘날 엘론 머스크와 같은 영향력 있는 사람들도 인식할 만큼 커지고 있다. 하지만 영국 옥스포드대 디지털윤리연구센터 마리아로사리아 타데오 부국장은 로봇과 인공지능이 오늘날 사회에 매우 유익한 것으로 입증됨에 따라 오히려 기술의 잠재력을 활용하는 문제 자체에 대해 관심을 가져야 한다고 말한다. 인공지능은 위험하거나 시간이 많이 소요되는 일을 대신하고 기후 변화에 맞서 싸우는 데도 도움이 됐다. 또한 그보다 더 중요한 것은 암 진단을 위한 필수적인 도구가 되었다는 사실이다.

위 같은 사실은 인공지능이 직업이나 군사적 사용 면에서 무서운 것이 아니라는 생각을 지지한다. 구체적인 예로는 구글의 인공지능인 ‘딥마인드(DeepMind)'가 있는데, 이 기술로 무어필즈 안과 병원에서 테스트했을 때 일반적인 안과 질환을 94.5%정도의 정확도로 진단할 수 있었다.

그러나 여전히 많은 사람들의 마음을 불편하게 하는 문제는 빠르게 부상하고 있는 인공지능 알고리즘에 대한 투명성 부족이다. 자율주행차의 출현과 마찬가지로 어느 누구도 어떻게 옳은 결정을 내리는지 또는 어떻게 안전을 단일칩으로 지킬 수 있는지에 대해 정확히 알지 못한다.

사고가 발생할 경우 누가 책임을 져야 하는가에 대한 문제도 있다. 승객이나 운전자 또는 인공지능 소프트웨어 중 어느쪽에 책임이 있는 지 불명확한 것이 현실이다.

인공지능의 또 다른 문제는 바로 ‘차별’이다. 한 예로 민간 회사가 개발하고 미국 위스콘신 주 교정국이 사용한 위험평가 도구인 ‘콤파스(Compas)'를 들 수 있다. 어떤 죄수가 가석방을 받을만한 지 결정하는데 쓰기 위해 개발됐으나 결국 아프리카계 미국인과 라틴아메리카계 미국인을 차별한다는 오명을 쓰게 됐다.

타데오는 “인공지능은 전기 또는 증기 엔진과 별반 차이가 없어야 하며 기술이 가져올 위험성을 줄이고 복지를 증진시키는 방식으로 인공지능을 사용할 책임감이 필요하다”고 강조했다.