(출처=셔터스톡)
(출처=셔터스톡)

유엔이 인권을 위협하는 인공지능 기술의 모라토리엄을 촉구하고 나섰다고 미국 독립 언론 NPR이 지난 16일 보도했다.

NPR에 따르면, 미첼 바첼렛(Michelle Bachelet) 유엔 인권고등판무관은 성명을 통해 “인공지능 기술이 사람들의 인권에 미치는 영향을 충분히 고려하지 않고 사용될 경우, 부정적인, 심지어 재앙적인 영향을 미칠 수 있다”고 경고했다.

“UN 회원국들이 제기하는 부정적이고, 심지어 비극적인 위험이 해결될 수 있을 때까지 인공지능 시스템의 판매와 사용을 유예할 것을 요구했다”고 덧붙였다.

이 보고서와 바첼렛의 논평은 페가수스로 알려진 스파이웨어가 수천 개의 전화번호와 국제 언론인, 인권 운동가, 국가 원수의 수십 개의 장치를 목표로 광범위하게 사용되고 있다는 최근 폭로에 따른 것이라고 NPR은 빍혔다.

바첼렛 판무관은 또 “AI는 사회가 우리 시대의 위대한 도전 중 일부를 극복하도록 도우며, 선(善)을 위한 힘이 될 수 있다”고 인정하면서도 “AI가 가져올 해악이 긍정적인 점보다 더 클 수 있다”고 제안했다.

“인권의 위험이 클수록, 인공지능 기술의 사용에 대한 법적 요구사항은 엄격해져야 한다”는 것이 그녀의 주장이다.

21세기 들어 인공지능 시대가 열리면서, 이 최첨단 과학기술이 가져올 미래에 대한 장밋빛 예측이 세상을 지배하고 있다. 하지만 그 배경에는 기술만 앞세운 위험한 낙관론을 경계하는 목소리도 만만치 않게 들린다.

지난 2016년 이후, UN을 비롯한 국제기구는 인공지능에 대한 다양한 목소리를 내기 시작했다. 사정은 다르지만, 그 골자는 AI가 미래 산업을 견인할 강력한 엔진이지만, 그 가능성에 비례해 위험이 공존하는 세계이며, 사전에 적절한 조치가 취해져야 한다는 주장이다.

인권법 준수하지 않는 AI 금지해야

지난 15일 미 의회 전문지 더 힐(The Hill)은 저널리스트 조셉 최의 칼럼을 통해 AI와 국제 인권에 대한 유엔의 목소리를 전했다.

더 힐에 따르면, 유엔은 AI가 우리 시대의 큰 도전 중 일부를 극복하도록 도우면서, 선(善)을 위한 힘이 될 수 있지만, 인권에 대한 충분한 고려 없이 사용된다면, 재앙적인 영향을 미칠 수 있다는 것이다,

AI는 이제 우리의 신체적, 정신적 삶과 심지어 감정적 상태의 모든 구석까지 도달해 누가 특정 공공 서비스를 받거나, 고용 후보가 되는가에 영향을 미치고 있다.

AI의 빠르고 지속적인 성장을 감안할 때, 데이터가 수집되고, 저장되고, 공유되고, 사용되는 방법 등에 대한 엄청난 책임 격차를 메우는 것은 우리가 직면하고 있는 가장 시급한 인권 문제 중 하나라고 유엔은 밝히고 있다.

최근 보고서에서, 유엔 인권 사무소는 법 집행에 AI를 사용하는 것을 둘러싼 우려를 강조했으며, AI가 때때로 특정 개인을 프로파일링하는 예측 도구로 사용되는 방법을 지적했다.

인종, 국가 기원, 성별 및 기타 특징에 따라 발생할 수 있는 AI의 ‘잘못된 식별’의 사례와 사람들을 프로파일링하는 데 AI가 어떻게 사용될 수 있는지, AI가 공공장소에서 사람을 식별하는 데 어떻게 사용되는지에 대해서도 언급했다.

인권 사무소는 또 각국이 AI 시스템 개발에 있어, 인권보존의 중요성을 인식하고, 국제인권법을 준수하지 않는 AI를 금지하고, AI 사용의 투명성을 높이며, AI 사용에 있어 차별을 배제하고, 부정적인 영향을 제한하는 정책을 채택할 것을 권고했다.

AI 거버넌스, 도시마다 다양해

지난 2019년 5월 25일 비즈니스 전문 매체 비즈니스 매터스(Business Matters)는 첫 정부 간 표준인 OECD의 인공지능 권고안 채택에 대한 칼럼을 실었다.

저자인 사이먼 스토크스(Simon Stokes)에 따르면, 새로운 권고안은 이 분야에 대한 규제를 옹호하기에는 부족하지만, AI의 폐해보단 인류에게 이익이 된다는 것을 보장하기 위한 광범위한 원칙들이 윤곽을 드러냈다.

AI의 책임 있는 책무를 위한 다섯 가지 원칙은 포괄적인 성장, 지속 가능한 개발 및 복지, 인간 중심의 가치와 공정성, 투명성과 설명성, 견고성과 안전성, 그리고 책임성 등이라고 밝히고 있다.

특히 권고안은 중소기업과 관련해 AI에 대한 국가 정책과 국제 협력을 제시하고, 이러한 권고안이 정부 정책을 형성하는 데 매우 중요할 것이란 견해를 담고 있다.

또 권고안은 인간 프로그래머와 AI 시스템을 학습하는데 사용되는 데이터가 많은 문제점을 안고 있다고 지적했다.

이에 대해 OECD의 원칙은 정책 입안자들에게 AI가 발전함에 따라 각국이 AI를 둘러싼 윤리적 문제를 다루기 위한 정책과 규제를 갖추도록 영향을 미치는 것이라고 정의했다.

한편, 지난해 8월 5일, 에메르즈(Emerj)의 다니엘 파겔라(Daniel Faggella) 기자는 프랑스의 OECD 과학기술혁신국의 카린 페르셋(Karine Perset)을 인터뷰했다.

파겔라 기자는 서두에 “그녀는 우리에게 OECD가 AI 원칙을 발전시키고, 미래까지 안전하게 신뢰할 수 있는 정책을 설계하기 위해 정부 기관들과 협력하는지에 대한 수많은 통찰력을 제공했다”고 밝혔다.

AI 소프트웨어 및 이러한 정책이 관리해야 하는 규모에 대해 논의한 결과, AI 거버넌스를 위한 글로벌 표준작업이 지속됨에 따라 지역 뿐만 아니라 국제적 차원에서 도시마다 다양할 수 있다는 정보를 얻었다고 덧붙였다.

인터뷰에서 “우리는 AI 시스템과 제품에 대한 지역, 국제 및 글로벌 정책 간의 차이점에 초점을 맞췄다.”며,“특히 많은 다른 유형의 AI를 고려해야 하지만 이에 대한 하나의 정답은 있을 수 없다”고 그녀는 강조했다.

또 페르셋은 “2019년 5월 OECD 회원국과 많은 파트너 국가들이 OECD의 AI 원칙을 채택했는데 한 달 후, G20도 같은 AI 원칙을 채택했다”며, “이는 G20 국가들의 지리적 폭과 경제적 역할을 고려한다면 글로벌 정책과 윤리적 벤치마크의 시작”이라고 주장했다.

G20은 유럽연합과 캐나다, 중국, 인도를 포함한 19개국의 정부로 구성돼있다.

고소득 국가 데이터, 저소득층에 안 맞아

세계보건기구(WHO)는 부유한 국가의 데이터를 사용하는 AI 모델을 다른 모든 사람에게 적용하지 말라고 경고했다고 올해 6월 9일 지디넷이 보도했다.

이 기사를 쓴 아이미 찬타다봉(Aimee Chanthadavong)은 “세계보건기구는 모든 AI 기반 의료 솔루션의 중심에 윤리적 고려사항과 인권이 포함되도록 보장하고자 한다”고 전했다.

세계보건기구(WHO)가 발표한 보고서는 의료 솔루션을 저소득 및 중산층 환경에서 사용할 경우, 고소득 국가의 개인으로부터 수집한 데이터 사용이 제대로 작동하지 않을 수 있다는 내용을 담고 있다.

이에 대해 "AI 시스템은 사회경제적 및 의료 환경의 다양성을 반영하도록 신중하게 설계돼야 하며, 디지털 기술, 지역사회 참여 및 인식 제고에 대한 교육을 동반해야 한다”고 WHO의 보고서는 강조했다.

또 보고서는 “AI와 지원 인프라에 대한 국가의 투자는 의료 서비스의 공정한 제공과 접근에 해로운 편견을 암호화하는 AI를 방지해 효과적인 의료 시스템을 구축하는 데 도움이 돼야 한다”고 밝히고 있다.

“AI 기반 의료 솔루션을 개발할 때,‘적절한 조치’를 취하지 않을 경우, 공급자와 환자가 내려야 할 결정이 기계로 이전돼 인간의 자율성을 해칠 수 있으며, 규제되지 않은 의료 서비스가 제공될 수 있다”라고 덧붙이고 있다

또 다른 위험에는 비윤리적인 보건 데이터 수집과 사용, 알고리즘으로 암호화되는 편견, 환자 안전, 사이버 보안 및 환경에 대한 위험 등이 포함될 수 있다고 지적한다.

WHO 사무총장인 테드로스 거브레이서스(Tedros Gebreyesus) 박사는 “인공지능은 전 세계 수백만 명의 건강을 증진시킬 수 있는 엄청난 잠재력을 가지고 있지만, 잘못된 사용으로 해를 끼칠 수도 있다”고 강조했다.

EU, AI 윤리 가이드라인 발표

지난 2019년 4월 8일 유럽연합 집행위원회(European Commission)는 인공지능 윤리 가이드라인(Ethics guidelines for trustworthy AI)을 벨기에 브뤼셀 본부에서 발표했다고 해외 주요 외신들이 전했다.

집행위는 “신뢰할만한 AI는 일련의 요구사항뿐만 아니라 모든 관련 법률 및 규정을 준수해야 한다”며,“특정 평가 목록은 각 주요 요구사항의 적용을 검증하는 데 도움을 준다”고 말했다.

가이드 라인에 따르면, 목적은 신뢰할 수 있는 인공지능을 알리는 것이며, 신뢰할 수 있는 AI에는 시스템 전 주기에 걸쳐 반드시 지켜져야 하는 세 가지 구성요소가 있다.

(1) 합법적이어야 하며, 모든 관련 법규를 준수해야 한다.

(2) 윤리적이어야 하며, 윤리적 원칙과 가치를 준수해야 한다.

(3) AI 시스템이 의도하지 않은 결과를 초래할 수 있기 때문에 기술 및 사회적 관점 모두에서 견고해야 한다.

이어 집행위는“각 구성요소 자체는 필요조건이며, 신뢰할 수 있는 인공지능을 달성하기에 충분조건은 아니다”고 밝혔다.

이상적으로, 세 가지 구성요소 모두가 조화롭게 작동하고, 작동에 중첩되는 것이 없어야 하는데 이들 사이에 긴장이 생기면, 사회는 그것들을 조정하기 위해 노력해야 한다는 것이 집행위의 방침이라고 덧붙였다.

AI에 의한 금융 불안 경고

지난 2018년 8월 15일 세계경제포럼(WEF)은 AI가 금융시스템을 불안정하게 만들 수도 있다고 경고했다. 이 소식은 MIT 테크놀러지 리뷰가 전했다.

WEF의 새로운 보고서에 따르면, 인공지능은 향후 10년 정도 동안 투자와 기타 서비스를 자동화함으로써 금융계를 재편성할 것이지만, 이는 또한 골치 아픈 체계적 약점과 위험을 초래할 수도 있다는 것이 WEF의 지적이다.

수십 명의 주요 금융 전문가와 업계 선두주자들과의 인터뷰를 통해 집계된 이 보고서는 인공지능이 얼리어답터들이 경쟁업체들을 앞지를 수 있게 만들어 산업을 교란할 것이라는 결론을 내리고 있다.

또한 이 기술이 개인 재정과 투자를 관리하기 위한 정교한 도구와 같이, 소비자들을 위한 더 편리한 제품을 만들어 낼 것을 암시한다고 리뷰는 평가했다.

그러나 가장 주목할 만한 점은 대형 금융 기관이 클라우드에 상주하고 다른 기관에서 액세스할 수 있는 머신 러닝 기반 서비스를 구축할 수 있다는 점이라고 보고서는 주장했다.

세계 경제 포럼의 AI 리더 제시 맥워터스(Jesse Macwaters)는 “머신러닝의 역동성은 백오피스를 연결하도록 강력한 동기를 부여한다”라며, “더 네트워크화된 세계는 사이버 보안 위험에 더 취약하며, 집중 위험을 발생시킨다”고 말했다.

즉, 머신러닝을 통합하고, 여러 기관이 클라우드를 통해 액세스하는 금융시스템은 해커에게 유용한 목표와 시스템 오류의 단일 지점을 제공할 수 있다는 지적이다.

그 사례로, 월스트리트는 이미 인공지능 붐의 중심에 있는 기술인 머신러닝을 빠르게 채택하고 있으며, 금융회사들은 일반적으로 많은 데이터와 많은 혁신 동기를 가지고 있다는 것이다.

AI타임스 조행만 객원 기자 chohang5@kakao.com 

[관련 기사]UN, AI로 자연재해 관리·예방하는 이니셔티브 가동

[관련 기사]WHO, AI에 대한 윤리적 가이드라인 제시...민간과 공동규제모델 채택 강조

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지