세계보건기구(WHO)가 ‘의료 분야 인공지능 윤리와 거버넌스 지침서(Ethics and Governance of Artificial Intelligence for Health)’를 6월 28일 발표했다. 독립언론 ‘유라시아 리뷰’ 등 외신이 이같은 사실을 일제히 보도했다.

전 세계적으로, 의료 분야에 대한 AI의 혁신이 가속화되고 있는 시점에서 인공지능 알고리즘의 편견, 의료 의사결정에 따른 위험성 등에 대응하기 위해 WHO는 AI의 의료 윤리·안전에 대한 기본방향을 제시하는 가이드라인을 밝힌 것이다.

WHO는 28일 발표한 지침서 서두에 “인공지능(AI)은 모든 국가가 보편적 건강 보장을 할 수 있도록 돕는 엄청난 잠재력을 가지고 있다.”라며, “AI가 공중 보건과 의약에 좋은 영향을 미치기 위해선 인권이 설계, 개발의 중심에 배치돼야 한다.”라고 밝혔다.

WHO가 지침서에서 나열한 인공지능의 의료 관련 잠재력은 진단 및 임상 관리 개선, 건강 연구 및 의약품 개발 강화, 질병 감시, 발병 대응 및 보건 시스템 관리 등과 같은 다양한 공중 보건 지원이다.

또 WHO는 지침서에서 “AI는 저소득 및 중산층 국가에 혜택을 줄 수 있는데, 정부는 AI 기반 도구(Tool)들의 도움으로 의료 서비스를 취약 지역의 주민들로 확대해 공공 건강을 개선할 수 있다.”고 덧붙였다.

AI의 이런 높은 의료 관련 잠재력에도 불구하고, 작금에 불거진 AI의 여러 위험에 대응하기 위해 이번 지침서를 만들었다고 WHO 사무총장 ‘테드로스 거브러여수스(Tedros A. Ghebreyesus)’박사는 강조했다.

그는 “인공지능은 전 세계 수백만 명의 건강을 증진할 수 있는 엄청난 잠재력을 가지고 있지만, 모든 기술과 마찬가지로 잘못 사용될 수도 있고 해를 끼칠 수도 있다.”고 지적했다.

따라서 “이 새 지침서는 AI의 위험을 피하는 동시에 그 이점을 극대화할 방법에 대한 가이드를 제공한다.“고 덧붙였다.

이 지침서는 WHO가 임명한 국제 전문가 위원회가 2년간 진행한 협의의 결과로 만들어진 것으로 알려졌다.

전체적으로, 9개 섹션과 부록으로 나누어져 있으며, 섹션 1은 이 주제에 대한 WHO의 참여 근거와 지침서의 발견, 분석 및 권고사항 등을 독자들에게 설명하는 장이다. 또 섹션 2와 3은 건강을 위한 AI를 정의하고 있다.

정보 격차가 저소득층의 AI 사용 제한

우선, 인공지능의 윤리 지침에는 개발과 사용보단 인권을 우선시하도록 설계·배치되어야 한다는 원칙을 강조하고 있다.

즉, AI가 건강을 위해 효과적으로 사용되려면, 인종, 민족성, 연령 및 성별 등 기존의 편견 데이터로 인코딩된 의료 서비스 및 시스템 알고리즘을 극복해야 하는 것이 중요하고, 정부는 기존의 디지털 기기에서 이런 편견 요소를 제거해야 한다고 강조했다.

또 AI 사용에 있어서 정보 및 통신 기술 접근의 불균일한 분포는 정보 격차를 초래해 저소득층의 AI 사용을 제한한다며, 성별, 지리, 문화, 종교, 언어, 또는 나이 등이 그 요소라고 WHO는 지적했다.

또 작금에 세계 최대의 기술 기업 중 다수가 자료수집에 많은 투자를 하고 있지만 규제되지 않은 제공자에 의한 AI 의료 서비스 제공이 확산될 수 있음을 경고했다.

즉, 이는 의료 서비스에 대한 정부의 감독에 문제를 일으킬 수 있고, 따라서 민간부문이 책임지고 대응하도록 감독 메커니즘을 개발해야 한다는 것이 WHO의 입장이다.

의료 서비스를 통제할 수 있는 잠재력을 가진 AI는 인간의 자율성을 해칠 수 있고, 이와 관련해 의료진은 AI와 기술적인 의사결정을 공유할 수 없으므로 의료진이 시스템과 의사결정에 대한 완전한 통제권을 유지해야 한다는 것이다.

이를 위해 WHO는 20명의 전문가로 구성된 그룹과 협력, 건강을 위한 AI의 윤리적 사용을 촉진하기 위한 핵심 원칙을 제시하고 있다. WHO가 정한 6가지 핵심 원칙은 다음과 같다.

(1) 자율성 보호, (2) 인간의 복지와 안전 증진, (3) 투명성, 설명성, 지적 능력의 보장, (4) 책임의 함양, (5) 포괄성과 형평성 보장, (6) 대응성과 지속 가능한 AI를 촉진하는 것 등이다.

조화로운 윤리 지침이 필수적

WHO는 새 지침서에서 AI의 윤리적 사용 문제에 대해 많은 부분을 할애했다.

WHO에 따르면, 의료 분야에 큰 영향력을 끼칠 수 있는 AI의 완전한 혜택을 누리려면 의료 및 공공 보건 서비스 시스템, 의사, 수혜자 등의 당사자들의 윤리적 문제가 해결되어야 한다고 강조했다.

이를 위해 AI가 환자 커뮤니티의 이익을 증진하기 위해 윤리적으로 방어 가능한 법과 정책 그리고 윤리적으로 설계된 AI 기술을 설계하고 시행하려는 공동의 노력이 필요하다는 설명이다.

또한, 건강을 위해 AI 기술을 설계하고, 규제하려면, 사용자들에 의한 윤리적 원칙과 인권 의무가 우선시돼야 하는데 그렇지 못하면, 심각하게 부정적인 결과를 초래할 수 있다고 지적했다.

그러나 의료 부문의 경우, AI 사용을 규제하기 위한 법률 또는 규정 등이 목적에 적합하지 않거나 구체적이지 않을 수 있는데, 그러한 기술을 개발, 사용 또는 감독하는 여러 기관의 공통된 관점에 기초한 윤리 지침을 만드는 것이 중요하다는 견해다.

WHO는 부정적 영향과 모순된 지침의 확산을 방지하려면, 지구 건강을 위한 AI의 설계와 구현에는 조화로운 윤리 지침이 필수적이라고 새 지침서에 강조하고 있다.

민관 협력에 투명성 확보 중요해

거버넌스 부문의 경우, AI 기술을 이해하기 위해 정부는 독립적인 규제 감독을 제한하지 않고 민간부문과의 공동 규제 모델을 채택하는 것을 고려해야 한다고 WHO는 강조했다.

즉, 정부는 AI 기술을 의료 현장에 배치하는 기업을 효과적으로 규제하고 기업 운영의 투명성을 높이기 위한 내부 역량 강화도 검토해야 한다는 것이다.

또 건강을 위한 AI 기술을 개발하거나 배포하는 민관 협력(Public-Private Partnership, PPP)의 경우, 정부와 기업 간의 모든 계약 조건에 포함된 투명성을 확보해야 한다는 지침을 제시했다.

이러한 공공적 파트너십은 개인 및 커뮤니티 권리의 보호를 우선시해야 하며, 정부는 제품과 서비스에 대한 소유권을 모색해 민관 협력의 결과를 모든 사람이 이용할 수 있도록 해야 한다는 설명이다.

기업은 법적으로 집행 가능한 인권 및 윤리적 의무, 데이터 보호 법률, 적절한 정보 제공 동의 및 개인 정보 보호 조치 등을 포함, 보건 시스템을 위한 AI 개발, 사업화 및 사용에 관한 국내 및 국제 법률과 규정을 준수해야 한다는 것이다.

AI타임스 조행만 객원기자 chohang5@kakao.com 

[관련 기사]AI 의사가 환자의 이름을 부른다면 좋아할까?...반전 결과 나타나

[관련 기사]AI 영상 분석부터 원격 진료까지...디지털 헬스, DNA를 만나다

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지