자율주행 차량이 교통 사고를 낸 경우 누가 책임을 져야 할까? 호주 매체 컨버세이션이 30일 자율주행 차량 사고 시 책임 소재에 관한 기사를 보도해 주목된다.
호주에서 처음으로 자율주행 차량 사고가 발생한 것은 지난 3월이었다. 한 보행자가 테슬라 모델 3에 치여 생명에 지장이 있을 정도의 중상을 입었고 운전자는 ‘오토파일럿’ 상태였다고 주장했다.
미국 고속도로 안전 규제 당국은 오토파일럿 상태의 테슬라 차량이 교통 정차 중에 신호를 깜박이던 응급 차량에 충돌한 일련의 사고를 조사하고 있다.
자율주행 차량의 의사 결정 과정은 종종 불투명하고 예측할 수 없기 때문에(제조업체에도 마찬가지로) 이러한 사고에 대해 책임을 져야 할 사람을 결정하기 어려울 수 있다. 그러나 성장하고 있는 ‘설명 가능한 AI(explainable AI)’ 분야가 몇 가지 해답을 제공하는 데 도움이 될 수 있다.
자율주행 자동차는 새롭지만 여전히 제조업체에서 제조 및 판매하는 기계다. 상해를 유발할 경우 제조업체(또는 소프트웨어 개발자)가 안전 책임을 충족했는지 따져봐야 한다.
현대 과실법은 한 여성이 진저 비어 병에 담겨 부패한 달팽이를 발견한, 도냐후 대 스티븐슨의 유명한 사건에서 비롯됐다. 그 제조사는 달팽이의 행동을 바로 예측하거나 통제할 것으로 기대되었기 때문이 아니라 병 생산 공정이 안전하지 않았기 때문에 과실이 있다는 판결이 나왔다.
이러한 논리에 따라 자율주행 자동차와 같은 AI 기반 시스템의 제조업체 및 개발자는 ‘자율’ 시스템이 수행하는 모든 것을 예측하고 제어할 수 없지만 위험을 줄이기 위한 조치를 취해야 한다. 매체는 위험 관리, 테스트, 감사 및 모니터링 방법이 충분하지 않은 경우 책임을 져야 한다고 강조했다.
어려운 질문은 “얼마나 많은 주의를 기울이고 얼마나 많은 위험 관리를 해야 충분한가?”이다. 복잡한 소프트웨어에서는 모든 버그를 미리 테스트하는 것이 불가능하다. 개발자와 제조업체가 언제 중단해야 하는지 어떻게 알 수 있겠는가?
다행히도, 법원, 규제 기관 및 기술 표준 기구들은 위험하지만 유용한 활동에 대한 관리 및 책임에 대한 기준을 수립해 왔다.
표준이 비용과 상관없이 위험을 가능한 한 줄여야 하는 유럽 연합의 AI 규정 초안과 같이 매우 엄격할 수 있다. 또는 가능성이 적거나 덜 심각한 위험에 대해 덜 엄격한 관리를 허용하거나 위험 관리가 위험한 활동의 전반적인 이익을 줄여야 하는 호주 과실법과 비슷할 수 있다.
위험에 대한 명확한 표준이 확립되면 이를 시행할 방법이 필요하다. 한 가지 접근 방식은 규제 기관에 벌금을 부과할 수 있는 권한을 부여하는 것이다.
AI 시스템에 의해 피해를 입은 개인도 소송을 제기할 수 있어야 한다. 자율주행 차량과 관련된 경우 제조업체에 대한 소송이 특히 중요할 것이다.
그러나 이러한 소송이 효과적으로 진행되기 위해서는 법원이 AI 시스템의 프로세스와 기술적 변수를 자세히 이해해야 한다. 제조업체들은 종종 상업적 이유로 이러한 세부 정보를 공개하지 않는 것을 선호한다. 그러나 법원은 이미 소송을 용이하게 하기 위해 상업적인 이익과 적당한 분량을 공개하는 것 사이의 균형을 맞추는 절차를 가지고 있다.
AI 시스템 자체가 분명하지 않은 ‘블랙박스’일 때 더 큰 문제가 발생할 수 있다. 예를 들어 테슬라의 오토파일럿 기능은 ‘딥 뉴럴 네트워크’에 의존한다. 이 AI 시스템은 개발자조차 특정 결과에 도달하는 방법과 이유를 완전히 확신할 수 없는 일반적인 유형의 AI 시스템이라고 할 수 있다.
현대 AI 시스템의 블랙박스를 여는 것은 이른바 ‘설명 가능한 AI’라고 불리는 컴퓨터 과학 및 인문학 학자들의 새로운 분야다. 목표는 AI 시스템의 구축 방식을 변경하거나 사실이 발생한 이후 설명을 생성해 개발자와 최종 사용자가 AI 시스템의 의사 결정 방식을 이해하도록 돕는 것이다.
전형적인 예로 AI 시스템이 허스키 사진을 늑대로 잘못 분류한 경우를 들 수 있다. ‘설명 가능한 AI’ 방식은 시스템이 전경에 있는 동물이 아닌 이미지 배경의 눈에 초점을 맞춘 점을 드러낸다.
소송에서 이 기술을 사용하는 방법은 특정 AI 기술 및 이로 인한 피해 등 다양한 요인에 따라 달라진다. 관건은 피해 당사자에게 AI 시스템에 얼마나 많은 접근이 허용되는지에 있다.
최근 호주 법원의 중요한 사건을 분석한 새로운 연구는 이것이 어떻게 보일 수 있는지에 대한 고무적인 일면을 제공한다.
2022년 4월, 호주 연방 법원은 공정 경쟁 규제 기관인 호주 경쟁 및 소비자 위원회(ACCC)가 소송을 제기해 웹사이트 및 TV 광고에서 호텔 객실 요금에 대한 오해를 불러일으켰던 전 세계 호텔 예약 회사 트리바고에 4470만 달러(400억원)의 벌금을 부과했다. 중요한 점은 트리바고의 복잡한 순위 알고리즘이 호텔 객실 중에서 가장 높은 순위에 혜택을 제공하는 방법이었다.
연방법원은 트리바고의 지적 재산을 보호하기 위해 보호 장치가 있는 증거 발견 규칙을 마련하고 ACCC와 트리바고는 전문 증인들에게 트리바고의 AI 시스템이 어떻게 작동하는지에 대한 증거를 요청했다.
트리바고의 시스템에 대한 완전한 액세스 권한이 없는 경우에도 ACCC의 전문가 증인은 이 시스템의 동작이 고객에게 ‘최상의 가격’을 제공했다는 트리바고의 주장과 일치하지 않는다는 설득력 있는 증거를 제시할 수 있었다.
이 사례는 기술 전문가와 변호사들이 법정 소송에서 AI의 모호성을 극복하는 방법을 보여준다. 그러나 이 과정에서 긴밀한 협업과 심층적인 기술 전문 지식이 필요하고 비용이 많이 들 수 있다.
규제 기관은 이제 AI 회사에 시스템을 적절하게 문서화할 것을 요구하는 등 미래의 작업을 원활하게 하기 위한 조치를 취할 수 있다.
매체는 다양한 자동화 수준을 가진 차량이 점점 일반화되고 있고 호주와 해외에서 완전 자율 택시와 버스가 테스트되고 있다며 도로를 최대한 안전하게 유지하려면 AI와 법률 전문가 사이의 긴밀한 협업이 필요하고 규제 기관, 제조업체, 보험사 및 사용자 모두가 역할을 수행해야 한다고 강조했다.
AI타임스 이한선 객원 기자 griffin12@gmail.com
