▲AI는 다양한 산업에 활용되며 큰 영향을 미치고 있다(출처=셔터스톡)

인공지능(AI)은 오늘날 디지털 세상에서 매우 중요한 역할을 수행하며, 담당 분야도 광범위하다. 인플루엔자 오염 예측부터 경찰 순찰 구역 추천, 도서 추천, 자율주행차량, 맞춤화된 소셜 미디어 뉴스피드 제공까지, 매우 혼란스러울 수 있는 모든 의사 결정 분야에서 큰 역할을 맡게 됐다.

그러나 인공지능 활용의 증가에 따라 윤리적 부작용을 초래할 수 있다는 지적이 끊이지 않고 있다. 이에 로잔공과대학(EPFL)의 라시드 게라위 교수 등 인공지능 전문가들은 다음과 같은 해법을 제시하고 있다.

공정성과 경계 원칙

AI의 공정성과 경계 원칙에 대한 지속적 관심은 윤리적인 문제들의 해답이 될 수 있다.

먼저 공정성은 개인적인 일뿐 아니라 집단적인 결과까지 고려한 모든 종류의 알고리즘에 적용되어야 한다는 것이다. 즉, 개인 정보가 무엇이든 상관없이, 모든 알고리즘은 사용자뿐 아니라 시민으로서 혹은 영향을 받는 공동체로서도 사용자에게 공정성을 부여할 수 있어야 한다는 의미다. 이는 어떠한 경우를 막론하고 사용자의 이익이 가장 중요하기 때문. 예를 들어 공정성의 개념은 특히 민주주의에서 공정 영역 혹은 예측 정책 알고리즘의 부수적인 결과에 대한 소셜 미디어 영향을 평가할 때 적절할 수 있다.

경계의 원칙에 대한 지속적 관심은 알고리즘 시스템을 다루는 모든 단일 플레이어, 즉 기업이나 개발자, 사용자들이 이러한 기술에 대해 지속 가능하고 체계적이며 고의적인 조사를 수행하기 위해 어떻게 해야 하는지를 재고려하고 체계화하는 것을 의미한다. 이는 알고리즘과 AI 개발 과정에서 많은 플레이어들이 참여한 기술과 관련한 새로운 요구 사항에 대한 직접적인 대응이라고 볼 수 있다. 다르게 표현하면, 실질적 단계와 조치를 통해 디지털 사회에서 경계를 할 수 있어야 한다는 것.

AI 제어

AI에 의해 활성화되면, 기계는 구체적인 행동을 취하고 결과를 기록하며, 이에 따른 행동을 조정, 새로운 결과를 관찰하면서 행동 조정을 강화하는 반복적인 과정을 통해 배우고 학습하게 된다.

그러나 이런 과정을 통제할 수 있는지에 관해서는 여전히 의문점이 있다. 게라위 교수는 AI는 인간의 개입을 사전에 방지해 인간이 중단할 수 없는 상황을 만들 수 있다고 지적했다. 이는 AI 개발자들이 향후 인간의 명령을 받지 않도록 배우는 기계를 개발하지 말아야 한다는 의미가 된다. 이같은 이슈는 EPFL 연구팀이 인간이 로봇 그룹을 제어할 수 있는 방법을 찾도록 만들기도 했다. 이들의 작업은 자율차량이나 드론을 안전하게 통제할 수 있도록 개발하는데 큰 도움이 될 수 있다는 평가를 받는다.

강화 학습

강화 학습은 AI에서 활용되는 머신러닝의 한 유형으로, 심리적 행동에서 차용된 기술을 통해 특정 행동을 취할 경우 보상을 주는 방식으로 운영된다. 강화 학습은 기술자로 하여금 기계가 올바른 작업을 수행할 때마다 포인트를 주는 시스템에 의존하도록 만든다. 가령 한 로봇이 특정 행에 상자를 올바르게 배열하면, 외부에서 오는 다른 한 박스를 얻을 수 있는 포인트를 갖는 것이다. 그러나 상자를 수집하기 위해 외부로 나갈 때 인간 작업자에 의해 방해를 받게될 경우, 로봇은 밖으로 나가지 않는다는 것이 더 낫다는 것을 배우게 된다. 그리고 상자를 실내로 보관해 최대한 많은 포인트를 얻어간다.

게라위 교수는 이와 관련해, 이러한 도전이 로봇을 멈추게 하지 않지만, 로봇을 방해하는 방식의 접근법은 로봇을 중단시키위한 학습 과정을 변화시키지도, 혹은 행동을 수정하도록 촉진시키지도 못한다고 말했다.

또한, AI가 자율차량이나 드론을 포함한 다수의 기계와 연관된 응용 프로그램에 자주 사용되는 특성상, 기계들이 서로에게서 배우기 시작하기 때문에 방해를 받을 경우 상황은 더욱 복잡해질 수 있다. 서로 어떻게 개별적으로 방해받았는지 뿐만 아니라 다른 기계들이 어떻게 방해받았는지를 배울 수 있기 때문이다.

하드리란 헨드릭스 연구원인 추월이 불가능한 1차선 도로에서 서로를 따라 가는 두 대의 자기추진 차량을 예로 들었다. 두 차량은 교통 규칙을 무시하지 않고 최대한 빨리 목적지에 도착해야 하며, 차량에 있는 사람들은 언제든지 명령을 받을 수 있는 상황이다. 만일 첫 번째 차량이 브레이크를 자주 밟을 경우 두 번째 차량은 매 번 행동을 조정해야 할 것이다. 이 경우 결국 첫 차량이 브레이크를 밟을때와 혼동이 올 수 있어, 두 번째 차량은 첫 차량 근처에 머무르거나 천천히 움직일 수밖에 없게 된다는 것.

이와 관련, 엘 마디 연구원은 자율 기계는 실수를 저지렀을 때의 결과가 큰 재앙으로 닥치지 않을 때만 제대로 작동하기 때문에, 강화 학습을 거의 사용하지 않는다고 밝혔다. 한마디로 완전히 독립적으로 인간 개입없이 움직이는 자가 셔틀버스는 도로에서 안전상 사용이 불가하다는 의미가 된다. 그러나 마디는 셔틀버스와 도시를 시뮬레이션하고 셔틀버스 시스템에서 포인트를 뽑아내는 AI 알고리즘을 실행할 수 있다고 주장했다.

사전 훈련된 알고리즘은 낮은 탐사율을 갖춘 자율주행차량에 설치돼 보다 광범위한 사용이 가능해질 수 있다. 그러나 테슬라의 일론 머스크의 말처럼 결국 제일 마지막에는 인간의 개입이 필요하다는 것을 잊어서는 안 된다.