앤드류 셀브스트 교수, AI 과실치사 관련 논문 발표
각 분야 AI 과실·흔들리는 질서 사례로 설명
“AI에게 책임 묻는 법 제정·관련 기관 개입 절실” 주장

(사진=셔터스톡).

지난 2018년 3월 미 애리조나주 템피시에서 자율주행자동차가 보행자를 치여 숨지게 한 사건이 있었다. 우버가 생산하고 시범운행 하는 과정에서 발생한 사고였다. 피해자 일레인 허즈버그는 자율주행차량으로 인한 첫 희생자로 기록됐다.

허즈버그 사망 이후 누구에게 법적 책임을 물어야할 것인가가 쟁점이 되었다. 미 연방 검찰은 사고 당시 차내에서 모니터링을 담당한 라파엘라 바스케즈를 과실치사 혐의로 기소했다. 바스케즈는 “내가 운전한 것이 아니기 때문에 책임이 없다”며 항변했다. 그러나 블랙박스 조사 결과 바스케즈가 스마트폰으로 TV를 시청하는 와중에 벌어진 사고임이 드러났다.

이듬해 2019년 애리조나 법원 셰일라 설리번 담당검사는 바스케즈에게 “추가조사를 경찰에 의뢰하라”는 내용의 서신을 보냈다. 설리번 검사는 바스케즈가 자율주행 차량 백업 운전자로서 역할을 제대로 수행했다면 “피할 수 있는 사건”이라고 덧붙였다. 반면 자율주행차량을 제조한 우버 측에는 “처벌할 법적 근거가 없다”고 밝혔다. 우버는 이후 시험운행 시 두 명의 보조운전자 탑승, 4시간 운행 제한 등의 조항을 새로 포함했다. 이에 반해 바스케즈는 검찰 송치 이후 지금도 수감돼있다. 최종 판결은 오는 2021년 2월 나올 예정이다. 사고 이후 약 1년 동안 시험운행을 전면중단했던 우버는 서비스를 재개했다. 우버는 그 사건 이후 지금까지 피해자에게 아무런 보상책임 없이 자율주행자동차를 만들고 시험운행을 하고 있는 셈이다.

이 사건은 AI로 인명피해 사고 발생 시 과실치사죄 적용 가능성 여부부터 근본적 AI 존재 이유까지 많은 논란을 낳았다. 인류의 편리함을 위해 발전을 거듭하고 있는 AI 기술이 해를 가할 경우 그에 맞는 법적 책임도 AI에게 부여해야 한다는 주장이 제기됐다. UCLA 교수이자 기술 및 법률 전문가 앤드류 셀브스트는 최근 이러한 내용을 담은 ‘과실치사와 AI 사용자’라는 논문을 증보해 발표했다.

(사진=셔터스톡)
(사진=셔터스톡)

셀브스트 교수는 논문에서 “AI 등장은 기존 법 규정에 긴장감을 조성한다”며 “더 이상 AI를 법 뒤에 숨게 해선 안 된다”고 못박았다. “사람의 능력을 대체하는 기술이라면 그답게 AI 자체에게 죄를 물을 법 개정이 절실하다”는 주장이다. 셀브스트는 이를 완성하기 위해서는 “규제기관의 개입 역시 필요하다”고 강조했다.

논문은 자율주행자동차를 비롯해 의료산업, 소프트웨어 보안에 이르기까지 현재 AI가 주요하게 쓰이고 있는 분야를 파헤치며 AI가 흔드는 기존질서 ‘에러’를 다루고 있다.

◇ 기계(AI) 보호 위해 인간이 희생되는 기이한 현상

자율주행차량으로 인한 사고를 예로 들며 셀브스트는 어느 판사는 차량이 낸 사고를 두고 사람에게 책임을 묻는 것이 불합리하다고 생각하는 반면 또 다른 판사는 사람이 통제권을 갖고 있으므로 사람에게만 책임을 부여해야 한다고 주장할 수 있다고 말한다. 그는 이를 인류학자 매들린 엘리쉬가 명명한 ‘도덕적 크럼플존’이 맞닥뜨리는 지점이라고 말했다.

크럼플존이란 자동차 사고 발생 시 사람을 보호하기 위해 보닛이나 트렁크 부분이 먼저 구겨지는 구조를 뜻한다. 엘리쉬는 인간과 인간의 손으로 발명한 AI 기술이 법 앞에 나란히 섰을 때 기계를 먼저 지키는 현행법을 두고 인류가 새로운 딜레마에 직면해 있다고 말한다. 현재는 인류사회 발전과 편리함을 목적으로 개발된 AI 대신 사람이 희생당하는 모습이라고 꼬집었다.

◇ 범용인공지능(AGI) 다루는 법적 틀 마련돼야

AI는 큰 틀에서 두 가지로 나뉜다. 사람과 같은 지능을 구현하는 범용인공지능(AGI)과 특정문제 해결에 강점을 보이는 좁은 인공지능(ANI)이다. 최근 탄생한 자연어처리 기술 GPT-3나 자율주행차량 등이 AGI, 알파고는 ANI의 예가 될 수 있다.

셀브스트는 AGI는 사람의 한계를 뛰어넘는 것이 궁극적 목표라며 이를 미래 사회 구성원으로 인정하고 받아들여야 한다고 주장한다. 그 첫 시작으로 AGI에게 적용할 법이 필요하다고 강조한다. 법으로 제한을 두지 않는다면 AGI 기술 (혹은 기술로 개발된 하나의 생산품)이 인간에게 신체적·정신적 피해를 입혔을 경우 제조사나 시스템 개발자에게 책임을 전가하게 된다는 것이다.

◇ AI 예측에 따라 잘못된 결정 내릴 가능성 배제 못 해

의료업계는 현재 AI로 가장 커다란 혁신을 맞이하고 있는 분야다. AI 시스템은 유방암을 비롯해 폐암, 뇌종양 등을 검사·치료하는 과정에서 담당의사가 빠르게 진단내릴 수 있도록 돕고 있다. 최근에는 코로나바이러스 백신개발과 치료에도 AI 기반 시스템이 가동되고 있다.

그러나 셀브스트는 미시건 주립대 니콜슨 프라이스 교수의 논문을 인용해 ‘AI로 인한 의료과실’에 대해서도 경고한다. 프라이스 교수는 오랫동안 빅데이터라는 명분 아래 개인 건강정보 남용과 프라이버시 침해를 제한하는 법의 중요성을 강조해온 인물이다.

그는 의료계가 AI 도입 이후 자동화 진단·예측 시스템에 의존해 정밀 조사 없이 따르게 되는 패턴을 조심해야 한다고 말한다. 또 사람과 AI 판단이 다를 경우 AI를 더 신뢰했다가 의료사고가 발생하는 일도 있어서는 안 된다고 주장한다.

“AI 헬스케어 등장 이후 이로 인한 과도함과 미흡함이 공존한다”고 말한 프라이스 주장을 예로 들며 셀브스트는 “의료계 발전을 위해서도 새로운 ‘AI 과실법’을 제정함으로써 급격한 변화에 제동을 걸고 규제 패러다임을 바로 세우는 시기가 필요하다”고 역설했다. 첨단기술에 기대어 인간 생명을 다룬다면 엄격한 책임이 뒤따라야 한다는 것이다.

셀브스트는 또 “통계적 관점에서 본다면 AI 기반 의료 시스템 덕분에 병원 내 부상·사망율이 감소되지만 개개인을 살펴볼 때 AI로 인한 차별이 발생할 수도 있다”고 적시했다. 그는 “지금과 전혀 다른 성격을 띤 새로운 피해자가 나오기 전 이를 제지할 의료 과실법 개정안이 시급하다”고 덧붙였다.

(사진=셔터스톡).
(사진=셔터스톡).

◇ ‘보안’이라는 이름으로 포장된 투명성 결여

“AI 기술을 활용 중인 산업계는 과실을 회피하기 위해 정보공개를 꺼리기도 한다” 셀브스트는 논문에서 이같이 주장한다. 셀브스트는 ‘자사 보안정책에 위배되는 행위’에 가려진 비밀은 AI 단점 역시 베일에 가둬둔다고 말한다. 그는 논문에서 “100% 정보를 수집해 빅데이터로 만들고, 그 기반으로 가동되는 기술이라면 개발 전 과정을 투명하게 공개해야 한다”고 주장하고 있다. 투명성이 결여된 채 발전속도에만 치중한다면 불법행위가 자행되는 것은 뻔한 수순이라고 경고한다.

[관련기사] [스페셜 리포트] ②인공지능, 사람, 그리고 일자리

[관련기사] [스페셜 리포트] ④ 알고리즘 개발 이슈, 어떻게 풀어가야 할까

키워드 관련기사
  • 판사 탄핵 계기로 살펴본 미래 AI 판사의 역할과 한계
  • [스페셜리포트]③자율주행차, 어떤 사고가 났을까
  • 일본, 의료 AI 소프트웨어 규제 완화