미 스탠퍼드대 연구원들이 의료 인공지능 소프트웨어에 있는 편향 데이터의 위험성을 경고하고 나섰다.
지난 14일 스탠퍼드 뉴스(Stanford News)에는 ‘인공지능 기능 저하’란 제하의 기사가 실렸다. 뉴스에 따르면 스탠퍼드 연구원들이 인공지능 기술이 의료 격차를 악화시키지 않는 노력을 기울여야 한다고 요구하고 있다는 것.
인공지능 기반의 의료기기 사용이 점점 더 많아지는 가운데 이 기기들의 소프트웨어에 있는 알고리즘에 성별, 인종 편견 등의 데이터들이 영구히 존재할 수 있다는 주장이다.
이 주장의 당사자는 스탠퍼드 대학에서 17년 동안 강의해 온 론다 시빙거(Londa Schiebinger) 교수와 컴퓨터 과학 및 생물 의학 AI 분야의 전문가인 제임스 죠(James Zou) 교수다.
이들은 맥박산소기와 같은 의료 장비의 소프트웨어에 있는 알고리즘이 어두운 피부의 사람과 여성의 혈액 가스 수치를 잘못 보고할 가능성이 크다고 역설한다. 일례로, CT 스캔의 경우, 환자의 질병이나 부상을 색 밀도로 찍는데 여기서 얻은 데이터들이 별도의 시각을 줄 수 있다는 것이다.
이에 대해 시빙거 교수는 “백인과 남성 신체는 오랫동안 의학에서 표준이 됐다.”고 말했다. 또 죠 교수 역시 “인공지능 기술이 다양한 인구통계와 인구에 광범위한 혜택을 줄 수 있어야 한다.”라고 지적했다.
편향된 인공지능, 현실에선 위험
인공지능의 편견 문제는 일찍부터 다양한 사람들에 의해 보고되고 연구돼왔다. 미래학자 버나드 마(Bernard Marr)도 그 중의 한 사람이다.
지난 2019년 1월 29일 자 포브스 지에 기고한 글에 따르면 인공지능의 의사결정 기술이 풀어야 할 사회의 문제 중 하나가 바로 편견이라는 것이다.
그는 미 가석방 당국이 범죄자들의 재범 가능성을 예측하기 위해 사용한 인공지능 알고리즘을 예로 들었다. 이 알고리즘은 흑인 범죄자들이 형기를 마친 후, 더 많은 범죄를 저지를 가능성을 과대평가하고 백인 범죄자들은 과소평가했다는 것이다.
버나드 마은 “이 편향된 인공지능 시스템이 실험실을 벗어나 현실 세계로 나올 때, 데이터의 편향 가능성을 발견하지 못하면 사회의 취약한 집단이 피해를 볼 위험이 있다.”고 지적했다.
인공지능 전문가 장 가브리엘 가나시아 교수도 인공지능의 사회적 편향에 대한 우려를 나타냈다. 지난 2019년 6월 24일 주한 프랑스문화원이 주최한‘인공지능 편향과 윤리적 과제’를 주제로 한 강연에서다.
초청 강연자로 나선 가나시아 교수는 빅데이터 기반 인공지능이 사회적 편향이나 편견을 증폭시킬 수 있는 가능성과 인공지능 알고리즘이 인간의 무의식적 편견에 의해 영향을 받을 가능성에 대해 언급했다.
가나시아 교수는“진정한 인공지능은 정보를 수집해 기억하고, 학습 및 추론하는 단계를 거친 의사결정을 통해 실행에 옮겨야 하는데 지금의 인공지능은 스스로 행동하는 자율성이 없으므로 진정한 주체라고 할 수 없다”고 주장했다.
그는 또“인공지능은 인간의 정보를 통해 학습하고, 인간을 모방하기 때문에 얼마든지 불공정해질 수 있다”고 지적했다.
피부색에 의존하는 맥박산소기
스탠퍼드 연구진이 사례로 든 맥박산소측정기는 환자의 피부에 빛을 비춰서 산소화 및 탈산소 적혈구에 의한 빛 흡수를 기록해 작동하는 메커니즘으로 알려져 있다.
문제는 인종별로 멜라닌 색소에 차이가 나는데 이 산소측정기들이 백인 환자를 표준으로 한다는 사실이다. 이는 흑인 환자의 혈액 가스 수치를 잘못 보고할 가능성이 세 배나 높을 수 있음을 의미한다.
또 휴대용 산소포화도 측정기(Oximeter)는 성 편향이 문제점으로 작용한다. 남성들보다 여성들에게 잘못된 수준의 경향이 더 자주 나타나기 때문에 특히, 여성이 비상 보충 산소를 공급받지 못할 위험이 있다고 이들은 주장했다.
죠 교수는 ”맥박 산소측정기는 다양한 인구통계학적 데이터 수집 없이 의료 기술을 개발하는 것이 편향된 측정으로 이어지고 그 결과, 환자의 상태가 더 나빠지는지를 보여주는 사례"라고 강조했다.
또 다른 최근 연구에서 미국 식품의약처가 승인한 130개의 의료 AI 장비를 검토한 결과, 연구진은 130개 기기 중 126개가 이전에 수집한 데이터만 사용해 평가한 사실을 밝혀냈다.
이 결과는 인공지능 알고리즘이 환자에게 얼마나 잘 작용하는지 아무도 가늠하지 못했다는 뜻이다. 또 승인된 기기의 13% 미만이 성별 또는 인종을 보고한 것으로 알려졌다.
죠 교수는 인공지능 기술 개발에 있어서 다양한 자료수집과 모니터링은 편향 문제를 해결할 수 있는 쉬운 방법이라고 강조했다.
학제적 접근이 AI 편향 해결책
스탠퍼드 연구진들은 인공지능 불평등 해소를 위한 대책으로 학제 간 접근법을 제시했다. 시빙거 교수에 따르면 미 국립보건원(NIH)이 지난 2016년부터 지원자들에게 성(性)을 생물학적 변수로 포함하도록 요구하는 일부 진전이 있었다고 말했다.
그는 NIH가 인종과 민족뿐만 아니라 성별에 대해서도 유사한 정책을 수립할 것으로 예상하고 있다.
아울러 두 교수는 인공지능이 사회적 불평등을 강화하는 문제에 대한 인식을 높이기 위해 커리큘럼을 향상시킬 것을 제안하고 있다. 스탠퍼드와 다른 대학들은 이미 컴퓨터 과학 과정에 윤리적 논리를 포함시키는 것으로 알려졌다.
두 사람은 한목소리로 “우리는 의학 분야에서 인공지능을 비판하려는 노력의 선두에 서게 된 것을 자랑스럽게 생각한다.”라며 “결국 인공지능이 영향을 미칠 많은 인간의 삶을 고려할 때, 더욱 중요하다."고 강조했다.
AI타임스 조행만 객원기자 chohang5@kakao.com
