미국의 정책 입안자들은 비슷한 실수를 하지 않아야” 당부
노동자 보호 차원에서 위원회의 규정 초안 아쉬운 점 많아
EU의 새로운 AI 규칙, 생체 감시 시대 열 가능성 있다 경고

(출처=셔터스톡)

올해 4월 21일 유럽연합(EU)은 인공지능(AI) 사용을 규제하기 위한 정책 초안을 발표했다.

EU 집행위원회가 발표한 AI 정책 초안은 윤리적으로 혼란을 일으키고, 개인의 안전을 침해하는 AI를 막기 위한 규제가 주를 이루고 있다.

총 108페이지 분량의 이 초안은 ▲공공장소에서 안면 인식 카메라 사용금지 ▲(국가 테러나 아동범죄 외) 생체정보를 이용한 신원 확인 금지 ▲불법체류자 색출 등 이민자 대상 업무 시 사용금지 ▲법정 내 재판·집행 시 사용 금지 등을 명시하고 있다.

이런 기준점 제시를 통해 미국이나 아시아권보다 빠르게 무분별한 AI 사용에 제동을 걸고 나섰지만 구글·아마존·마이크로소프트(MS) 등 글로벌 IT 기업들은 일찌감치 개발부터 상용화까지 전 단계에 걸쳐 걸림돌로 작용할 것이란 우려스러운 목소리를 내놓았다.

이에 대해 집행위원회 측은 이 항목에 포함되는 분야가 사람의 안전이나 기본권을 위협하는‘고위험군’이라고 간주했다.

집행위원회의 IT 기술 담당 마르그레테 베스타게르(Margrette Vestagher) 위원은 “현재 AI는 가장 중요하면서도 인간사회에 전례 없는 소란을 일으키는 기술”이라며 “급성장하고 있는 기술이 주류가 되기 전에 규제하려는 시도”라고 강조했다.

하지만 위원회의 이런 설명에도 불구하고, 약 4개월이 지난 지금, 이 초안을 바라보는 업계와 전문가들의 시선은 곱지 않다.

파리 정치연구소의 연구위원 라이언 나빌(Ryan Nabil) 박사는 지난 16일 미국의 보수 성향 국제문제 전문지 ‘내셔널 인터레스트(TNI)’지에 “최근 EU가 제안한 인공지능 법이 도를 넘는다”고 비판했다.

서두에 그는 “유럽연합(EU)은 세계 최초의 인공지능(AI) 종합 입법이 될 방안을 검토 중”이라며, “제안된 규정은 정부의 감시 개입을 제한하기 위한 것이지만, 실제론 여러 가지 면에서 혁신을 위협하고 있다”는 견해를 밝혔다.

그는 또 “미국의 정책 입안자들은 비슷한 실수를 하지 않도록 주의를 기울여야 한다”고 강조했다.

나빌 박사에 따르면, EU가 제안한 인공지능 법(AIA)은 AI 활동을 위험 수준에 따라 다른 범주로 분류한다. 예를 들면, 개인 생활에 큰 위험을 초래하고 법 집행 안면 인식 시스템의 AI 사용을 제한하는 사회적 신용 평가 시스템 및 생체 감시와 같은 일부 침입적 AI 지원 정부 활동을 금지하는 것은 올바른 방향이라는 것이다.

그러나 인공지능 규제법(AIA)은 혁신적인 유럽 기업에 상당한 문제를 제기하고 있다는 주장이다.

첫째, 지나치게 모호하고 광범위한 AI 정의를 채택하고 있어 감독 당국이 잠재적으로 다양한 사업에 고가의 요구사항을 부과할 수 있다.

예를 들면, EU의 AI 정의에는 '다양한 방법을 사용하는' 머신러닝 접근방식을 채택한 소프트웨어가 포함된다.

특히, 오는 2030년까지 전체 EU 기업의 4분의 3이 AI를 이용할 수 있기 때문에 더욱 문제가 되고 있다는 주장이다.

기업은 생체 인식과 같은 고위험 활동을 하는 제품을 제공할 경우, 고가의 규정 준수 요건을 거쳐야 한다.

그러나 EU가 제안한 고위험 활동에 대한 정의는 매우 광범위해 이들 부문이 합쳐지면 EU 전체 GDP의 35%를 차지하고, 이 제안된 법안으로 유럽에 대한 AI 투자를 20% 줄일 수 있다는 추산이다.

즉, EU 경제는 향후 5년간 310억 유로(약 364억 달러)의 손실을 볼 수 있다고 나빌 박사는 지적했다.

특히, 이 인공지능 규제법(AIA)은 스타트업과 중소기업의 혁신에 걸림돌이 될 것이라고 나빌 박사는 예상했다.

EU의 추산에 따르면, 직원 수가 최대 50명 정도에 이르는 중소기업(SME)이 고위험 AI 제품 하나를 제공하는 경우, 최대 400,000유로(약 469,000달러)의 총 준수 비용 부담을 부담해야 하기 때문이다.

이에 대해 나빌 박사는 “이렇게 규제 준수 부담이 증가하는 상황에서, 많은 유럽 기업들은 혁신에서 눈을 돌리게 될 것”이라며, “유럽 기업들은 더욱 우호적인 규제 환경을 가진 미국의 실리콘 밸리와 같은 곳으로 쉽게 이동할 수 있다”라고 지적했다.

이 제안된 법은 EU가 필요로 하는 것의 반대 효과를 가져오고, 이로써, EU는 기술혁신에서 중국과 미국에 밀리면서 대륙은 더 많은 기술혁신과 투자가 필요하고, 유럽의 현명한 기업가와 혁신적인 두뇌 유출 위험도 감수해야 할 것이라고 나빌 박사는 주장했다.

나빌 박사는 또 “EU의 이런 노력은 미국 정책 입안자들에겐 중요한 교훈이다”고 강조했다.

노동자 보호에 초점 맞춘 AI 지침 필요

올해 8월 12일 국제 미디어 기관 ‘프로젝트 신디케이트(Project Syndicate)’에 쓴 칼럼을 통해 유전학 박사 출신의 아이다 카스티요(Aida Castillo) 변호사는 “유럽은 자국민을 보호하고, 규제와 배치 과정에 노동자를 참여시켜야 인공지능의 글로벌 리더가 될 수 있다.”며, “그런 점에서 유럽 위원회의 최근 규정 초안은 아쉬운 점이 많다”고 밝혔다.

카스티요 변호사에 따르면, 유럽 위원회의 AI 규제는 리스크를 해결함으로써 이 신기술에 대한 신뢰를 창출하고, EU 회원국들이 투자하고 혁신하는 우수성이 뒤따를 것이라고 위원회는 주장한다. 이 두 가지를 고려하면 유럽의 AI 보급은 가속화될 것으로 보인다.

이에 대해 그녀는 “유감스럽게도 AI 규제의 핵심 목적이 되어야 할 EU 시민의 기본권 보호는 부차적인 고려사항으로 보이며, 노동자의 권리에 대한 보호는 전혀 고려되지 않은 것으로 보인다”고 비평했다.

제안서에 따르면 ‘고위험’으로 간주하는 AI 시스템은 개인의 건강 및 안전이나 기본권에 중대한 위험을 초래하며, 관할 외부 기관의 사전 검증 없이 사업자가 수행해야 하는 사전 적합성 평가를 받아야 한다.

위원회는 AI에 대한 정의뿐만 아니라 규제 초안을 뒷받침하는 위험기반 접근법도 공론화에 근거하고 있다고 말한다.

“그러나 2020년 AI 백서에 대한 응답자의 압도적 다수를 산업 및 기술기업이 차지하고 있다는 사실은 민주주의와는 거리가 먼 운동임을 시사한다”고 그녀는 지적했다.

이러한 기업들은 지식, 과학 및 기술 등을 촉진하는 척하면서, 규제 과정을 자신들의 이익에 부합하는 방향으로 이끌었으며, 사회, 특히 노동조합의 목소리는 들리지 않았다고 덧붙였다.

카스티요 변호사는 그 규정에는 몇 가지 단점이 있다고 지적했다. 협소한 위험기반 접근방식, AI 시스템 피해 책임 해결 실패, ‘안전한’ 환경 제공 규제 유예 의존 등이 그것이다. 이 초안은 또한 노동자 보호의 관점에서 전달되지 못했다고 주장했다.

“이러한 단점을 해소하기 위해서는 노동자를 보호하고, 개인 또는 단체 차원에서 권리와 자유를 행사할 수 있도록 하는 맥락에서 AI에 초점을 맞춘 임시 지침이 길이 될 것”이라고 그녀는 조언했다.

카스티요 변호사는 몇 가지 주요 이슈를 상정했다. 우선, 산업안전보건위험 평가 의무와 같은 방식으로 AI 위험 예방을 위한 사업주의 책임을 정해야 한다.

또 AI는 데이터에 목말라하고, 노동자는 중요한 정보원이기 때문에 노동자 프라이버시와 데이터를 보호하는 것도 마찬가지로 중요하다.

그녀는 “위원회의 규정 초안은 아쉬운 점이 많다.”며, “유럽 의회와 EU 회원국들은 이제 이 핵심 규정의 최종 버전에 노동자 보호를 통합해야 한다”고 역설했다.

비평가들, AI 규정에 대량 안면 인식 경고

미국의 정치 신문 ‘폴리티코(POLITICO)’의 유럽 AI 특파원 ‘멜리사 하이킬래(Melissa Heikkilä)’ 기자는 올해 6월 7일 폴리티코에 “비평가들이 유럽의 AI 규정이 대량 안면 인식의 문을 열 것이라고 경고하고 있다”고 전했다.

또 “비평가들은 이 블록의 인공지능 법안의 허점이 유럽 국경을 넘어 광범위한 안면 인식을 가능하게 할 것을 우려한다”고 덧붙였다.

멜리사 기자에 따르면, EU는 당국에 의해 얼굴 인식의 제한된 사용을 허용하는 새로운 AI 규칙에 대한 반발에 직면하고 있으며, 반대론자들은 이 새로운 AI 규칙이 생체 감시의 새로운 시대를 가져올 수 있다고 경고하고 있다는 것이다.

아울러, 중남미, 아프리카, 아시아 등을 포함한 전 세계 디지털 권리와 소비자 보호 단체 연합은 정부와 기업 모두의 대량 및 차별적 감시를 가능하게 하는 생체 인식 기술을 전세계적으로 금지할 것을 요구하고 있다고 전했다.

55개국 170명이 서명한 공개서한은 공공장소에서 얼굴 인식과 같은 기술을 사용하는 것은 인권과 시민의 자유에 어긋난다는 내용을 담고 있다.

서한을 공동저술한 미국 디지털 권리단체 ‘액세스 나우(Access Now)’의 다니엘 루퍼(Daniel Leufer)는 “인권 관련 단체, 단체, 사람들, 운동가, 기술자 등이 이 요청에 동의한다는 것을 보여준다”고 말했다.

이 서한은 EU의 AI 법안에 대한 일부 답변이지만 이를 전면 금지하지는 않는다고 멜리사 기자는 알렸다.

멜리사 기자에 따르면, 유럽 위원회는 지난 4월 발표한 AI 제안서에서 시민들의 프라이버시 보장과 테러와 범죄에 맞서기 위해 기술이 필요하다고 말하는 정부들을 달래는 것 사이에서 타협점을 찾으려 했다.

이 규정은 명목상 경찰이 사용하는 공공장소에서의 얼굴 인식과 같은 생체 인식 시스템을 금지하고 있는데, 위원회가 명시한 중대한 범죄가 테러와 관련된 사건을 의미할 수 있지만, 운동가들은 거짓 위협에 근거하여 모든 종류의 감시의 문을 열 수 있는 애매한 용어라고 경고하는 반대의 관점을 그녀는 전했다.

멜리사 기자는 “문제는 EU 정부들이 감시 기술이 사용될 때, 엄격한 제한을 유지한다고 해도, 다른 나라 정부들도 똑같이 할 것 같지는 않다는 것”이라고 말했다.

그 이유는 브라질과 인도 등과 같은 국가의 활동가들은 시민들의 디지털 프라이버시를 보장하는 것이 중요하다는 것을 정부에게 이해시키는 힘든 투쟁에 직면해 있기 때문이다.

새로운 기술은 사법 당국에 전례 없는 시민들의 활동에 대한 접근 권한을 부여할 수 있으며, 운동가들은 당국이 그 기술을 남용하지 못하도록 하는 규정을 마련하기를 원하고 있다고 그녀는 전했다.

원격 생체 인식은 초안의 중심 관심사

EU의 인공지능(AI) 정책 초안이 발표된 다음 날에 AI 저술가 ‘세바스티앙 루라두르(Sébastien Louradour)’씨는 월드이코노믹포럼에 ‘EU의 안면 인식 규정에 대해 알아야 할 사항’이란 주제의 칼럼을 기고했다.

그는 칼럼에서 “안면인식기술(FRT)은 유럽 위원회가 제안한 AI 규제안의 핵심 관심사”라며, “이를 성공적으로 준수하기 위해 기술 제공업체는 리스크 관리 및 품질 프로세스 등에 대한 맞춤형 접근방식을 구축해야 한다”고 촉구했다.

루라두르 씨에 따르면, 확인된 위험 중 안면인식기술(FRT)을 포함하는 원격 생체 인식 시스템은 자연인의 실시간 및 사후 생체 인식에 사용되는 AI 시스템으로 높은 수준의 위험 시스템으로 간주하기 때문에 기술 제공자의 사전 평가 및 사후 평가가 필요하다는 주장이다.

또한, 법 집행을 목적으로 한 공공장소에서의 실시간 원격 생체 인식 시스템은 실종자 대상 수색이나 임박한 테러 위협 방지 등 공공안전에 매우 제한적인 예외를 두지 않는 한, 대부분 금지된다는 것이다.

이 사용 사례에 대한 추가 요건에는 충분히 정당한 긴급 상황에서 운영되지 않는 한, 개별 사용은 사법 기관 또는 회원국 독립 행정 기관에 의해 허가돼야 하며, 승인 여부는 국가법이 정한다고 그는 말했다.

FRT와 같은 인증 프로세스의 다른 사용은 높은 수준의 위험 목록에 포함되지 않기 때문에 더 가벼운 수준의 규제가 필요하다고 덧붙였다.

AI타임스 조행만 객원 기자 chohang5@kakao.com 

[관련 기사]“실망스럽다” vs. “당연하다” 의견 분분... 유럽연합, AI규제안 발표 후 글로벌 기업 반응은?

[관련 기사]유럽연합, AI 운용에 강력한 규제 시동 걸었다

키워드 관련기사
  • 딥브레인AI, 최상위 국제 학술대회서 논문 2편 채택...딥페이크·음성인식 주제
  • 과기정통부-국방부, '스마트국방' 본격 추진한다...IITP 내 전담 조직 신설
  • 구직자 관점에서 바라본 AI 면접