A를 치면 B를 살리는 윤리적 딜레마, 운전차는 누구를 택할 것인가
자율주행차 해제까지 앞으로 2년. 도덕적 문제 해결은 언제쯤...

▲(이미지=셔터스톡)©AI타임스
▲(이미지=셔터스톡)©AI타임스

(AI타임스=윤광제 기자) 운전자가 없더라도 우리가 원하는 장소로 옮겨다 주는 꿈같은 자동차의 실현이 눈앞에 다가왔다. 하지만, 만약 이 ‘꿈의 차’가 살인기계가 될 가능성이 있다면, 당신은 어떻게 할 것인가. 구입할지, 아니면 포기할지, 그리고 차가 일으킨 살인은 누구의 책임이 될까?라는 문제가 대두되고 있다.

자율주행차 개발이 본격화되고 있다. 도요타는 2020년 도쿄 올림픽에서 첫 선을 보인다고 발표, 혼다는 구글 산하의 IT기업 웨이모와 손잡고 2025년까지는 레벨 4(시스템에 따른 주동 운전)의 자율주행 자동차를 개발한다고 밝히고 있다.

이러한 자율주행차량에 대한 기술 개발이 진행되면서 자율주행차량에 대한 윤리문제가 함께 이슈가 되고 있다.

이와 관련해 2014년 ‘자율주행차량의 윤리관’을 묻는 흥미로운 실험이 이루어졌다. 만약 누군가를 희생시켜야 할 경우 자동운전차는 어떤 선택을 해야 할까?"일명 "토롯코 문제"이다.

◆ A를 치면 B를 살린다. ‘광차 문제’가 제기하는 윤리적 딜레마.

광차 문제(鑛車問題, trolley problem)는 윤리학의 사고실험이다. 여기서 광차(鑛車)는 광산 또는 터널 등의 토목공사장에서 광석, 폐석 및 토사, 광산용 자재 등을 수송하는 차량 전체를 아우르는 말로 종종 일본어인 도롯코(トロッコ)로 속칭하기도 한다.

광차 문제는 인간의 도덕적 윤리관을 묻는 문제로 조건은 다음과 같다. 선로를 달리는 광차가 있다. 통제 불능에 빠진 이 광차를 이대로 두면 저 멀리 철로 위에 있는 5명의 인간을 치게 된다. 기관사인 나는 선로의 방향 전환할 수 있는 레버를 갖고 있는데, 만약 5명을 살리려고 한다면 다른 선로 위의 무고한 한 명을 희생시켜야 한다. 레버를 당길 것인가, 그냥 아무것도 하지 말 것인가?

2014년, 매사추세츠 공과 대학의 컴퓨터 과학 연구팀은 ‘도덕·머신(Moral Machine)’라는 퀴즈식 실험을 고안했다. 응답자들은 ‘A를 희생하지 않으면 B가 살 수 없다’ 누군가의 죽음을 피할 수 없는 상황에서, 자동운전차는 어느 쪽의 희생을 택할 것인가를 선택한다. 실험에서는 젊은이, 노인, 부자, 펫 등의 다양한 유형의 ‘희생자’를 준비하고, 희생될 인원의 다소 조절해 13가지의 다른 시나리오를 준비했다.

도덕·머신을 클라우드에 서징결과, 예상을 뛰어넘는 반향을 얻었다. 1년 반 만에 세계 233개국 약 4000만 명의 응답을 얻었고, 매우 흥미로운 결과도 도출됐다고 한다. 나라나 지역, 그 나라의 발전 정도 등에 따라 사람들의 선택이 크게 달랐다는 것이다.

◆ 지역이나 국가의 상황에 따라 다른 가치관
우선 애완동물보다 인간을 보호한다는 것에 관해서는 나이, 성별, 국가나 지역을 불문하고 공통적인 답변이었다.

그러나 이어지는 질문에서는 세분화 되기 시작했다고 전한다.

보고서에 따르면 크게 3개 그룹으로 나뉘는데, 우선 북미나 유럽 제국을 포함한 기독교가 지배적인 A그룹 국가. 다음으로, 일본이나 인도네시아 등 유교나 이슬람교가 강한 B그룹 국가. 마지막으로 중남미 등 구프랑스 식민지의 C그룹 국가로 구분된다고 밝혔다.

A그룹 국가는 B그룹에 비해 노인보다 젊은이를 구하는 일을 선택하는 경향이 있었다고 한다.

더욱이 콜롬비아 등 빈부의 차가 큰 나라 사람들은 더 낮은 지위의 사람을 희생시키는 것을 택했고, 강력한 법치국가인 일본이나 핀란드는 ‘불법’으로 도로를 가로지르는 사람에 대해 냉정한 조치를 취하는 선택을 했다고 한다.

이 실험에서 알 수 있는 것은 나라의 역사적·종교적 배경이나 경제적, 구조적인 요인이 사람들의 윤리의식에 깊이 얽혀 있다는 것이다.

◆ AI의 윤리관은 어디까지...
인간조차 어려운 도덕적 판단을 기계인 자율주행차의 AI는 어디까지 구할 수 있을까? 게다가 ‘정답’이 장소나 판단하는 사람에 따라 다른데, 복잡다양한 상황에서 AI에 윤리관을 심어주는 것이 가능할까?

자율주행차의 ‘운전자’는 AI이다. AI는 통상 인간의 뇌가 행하고 있는, 판단, 기억, 학습, 추측과 같은 것을 인공적으로 해 주는 시스템이다.

AI는 지금까지 방대한 데이터의 축적이나 인간의 지시에 의해 움직이고 있었지만, 현재는 ‘딥러닝’이라고 하는 판단까지 스스로 학습하는 능력이 개발되고 있다. 향후 AI는 도덕관을 포함한 판단조차 ‘학습’을 할 수 있을까?

AI는 의료용 로봇, 군사용 무인기 등 인명에 관련된 것에도 탑재돼 있다. 영국의 로봇 윤리학자 앨런 와인필드씨에 의한, 로봇을 사용한 실험에서 흥미로운 것이 있다.

실험은 구멍에 빠진 2구의 로봇(D)을 다른 1구의 로봇(C)가 구한다는 것이다. C는 주위 물건에 대한 위치를 감지하는 능력이 갖춰져 의도적으로 대상물을 훼손하지는 않지만, 무리해서 구조를 할 필요는 없다는 식으로 프로그램 돼 있었다. 실험에 따르면 C는 구멍에 조금씩 다가가 D를 도우려고 조치했으나 그것을 몇 번인가 반복할 때에 C의 시스템은 쇼트되면서 마침내 C는 2구의 D를 방관한 것이다.

이 문제를 해결하기 위해서는 어떻게 프로그램을 해야 하는가? C는 스스로의 몸을 망치고, D를 구하는 선택을 해야 하는가? 보신이라는 C의 선택이 옳았을까? 만약 이것이 군용기라면 항상 이런 긴박한 선택에 노출될 것이다. AI와 윤리관에 가로놓인 문제는 너무 크다.

◆ 자율주행차 해제까지 앞으로 2년. 문제 해결은?
이야기를 자동운전차로 돌려놓자. ‘광차 문제’에 대해 자동차 회사들은 어떤 반응을 보이고 있을까?

아우디 측 관계자는 첫머리의 MIT 실험에 대해 "가치가 있다"고 전제한 뒤 "자율주행차가 사고를 낼 확률은 기존보다 낮아지겠지만 로봇이 관련된 사건에는 더 주의를 기울일 필요가 있다“고 말했다.

볼보 측 관계자는 ”당사 개발의 자율주행차에 대해 모든 책임을 지겠다“고 공약했다.

일본의 상황은 어떨까? 자율주행차에는 6개의 레벨이 있다. 이 중 운전자가 필요 없고 완전히 AI가 운전을 맡는 것은 레벨 4이상이다. 시시각각 변하는 경치 속, 사람이나 표지판, 도로, 주위의 가게, 가로수 등 다양한 것을 한순간에 식별·판단하고, 그것들에 대해 적절한 반응을 해야 한다는 매우 고도의 지능과 정보처리 능력이 필요하다.

일본 국토 교통성은 지난 2018년 9월 ‘자동 운전 자동차 안전 기술 가이드 라인’에서 ‘2020년까지 레벨 4의 자동운전 차를 지역으로 한정하고 부분적으로 도입한다. 그리고 2025년을 목표에 레벨 4차가 고속 도로에서 주행할 수 있도록 하겠다’고 목표를 정한 바 있다.

윤리적 문제에 대한 답변은 아직까지 나오지 않고 있다. 그러나 자율주행차의 시장화는 눈앞이다. 음주운전과 운전자의 부주의로 인한 사고 등 지금까지 인간이 일으킨 인위적인 사고는 줄어들 것으로 전망한다. 자율주행차의 도입은 인간부주의에 의한 사고 예방차원에서는 긍정적일지 모르지만 실제로 시장화되고 나서, 지금까지 예기치 않았던 과제도 많이 나올 것은 틀림없다.

지금 기술력으로 얼마나 사고를 예측하고 회피할 수 있을지 사회 전체가 함께 고민해야 할 문제인지도 모른다.

【에이아이타임스 aitimes 에이아이타임즈】