EU, 인공지능법 연내 제정...미 뉴욕시 AI편견 감사법 4월 발효

(사진=셔터스톡)
(사진=셔터스톡)

올해는 인공지능(AI)에 대한 법적 규제가 시작되는 원년이 될 전망이다.

유럽연합(EU)이 지난 20개월 가량 검토해온 인공지능법(AIA:AI Act) 제정을 연내 완료할 것으로 보인다. 현재 유럽의회 심사 단계를 밟고 있다. 또 미국에서는 뉴욕시가 지난해 마련한 채용AI 편견 감사법이 오는 4월 15일부터 발효된다. 

이와는 별도로 학습데이터에 대한 저작권이 인정되면 생성AI와 관련한 규제로 작용할 가능성이 높다. 깃허브의 코드생성AI 도구인 코파일럿에 대한 소프트웨어 도용 혐의 소송이 진행되고 있다. 이 소송에서 학습데이터의 저작권이 인정된다면 이는 앞으로 생성AI 개발과 상용화에 큰 영향을 미칠 수 있어 주목된다.

◆유럽연합의 인공지능법 : 지난 2021년 4월 집행위원회가 초안을 마련했다. 그동안 유럽 각국 대표가 참여하는 이사회 검토를 거쳐 지난달 22일 수정안이 최종 제안됐다. 이에 따라 유럽의회는 올해 AIA안에 대한 입장을 결정해야 한다. 

상반기 중에 투표를 통해 의회 입장을 확정하면 EU 이사회와 집행위원회 및 의회는 다시 기관간 협상 절차를 거쳐 법을 제정하게 된다. 법률 전문가들은 이 시기를 올해 말로 예상하고 있다.

AIA는 유럽 시장에서 활동하는 모든 사업자들에게 적용되기 때문에 세계적인 표준으로 받아들여질 공산이 크다. 개인정보보호에 관한 규정(GDPR)도 유럽에서 먼저 제정된 뒤 미국 등 다른 나라들이 받아들이며 세계 표준이 된 전력이 있다.

AIA법안은 AI를 위험도에 따라 3단계로 분류하고 이에 따른 규제를 부과하는 내용을 뼈대로 한다.

첫 단계는 '매우 위험한 AI'다. 이 단계는 인권침해 우려가 매우 커서 사용을 금지해야 한다. 공공장소에서 전 국민의 행동을 실시간 감시하는 안면인식, 국민 행동을 점수화하는 소셜 스코어링 관련 AI 기술 등이 해당된다. 금지 규정을 어긴 경우 전 세계 매출액의 6%까지 과징금을 물린다. 

두번째 단계는 '고위험 AI'다. 안전과 인권에 큰 영향을 주는 시스템에 적용되는 AI다. 범죄자 탐지 CCTV나 채용, 승진 등 인사관리 프로그램, 전력 등 잘못 작동되면 큰 위험이 발생할 수 있는 주요 인프라, 대출이나 보조금 결정 등에 적용되는 AI 기술이 해당된다. 사용은 허용되지만 적합성이나 편향성 평가 등 엄격한 기준을 따르도록 한다.

세번째는 '제한된 위험의 AI'다. 이용자에게 AI를 상대하고 있다는 사실을 알리는 등 투명성 확보가 권장된다. 

AIA는 또 "일반적 목적의 AI 시스템(GPAI:General-Purpose AI) 개발자가 위험 관리, 데이터 거버넌스, 기술문서, 투명성 지침, 정확성과 사이버보안 기준을 의무적으로 갖춰야 한다"는 내용도 담고 있다.  

유럽위원회는 특히 GPAI를 '일반적으로 적용 가능한 기능을 갖고 있으며, 여러 상황에서 사용될 수 있는 AI'라고 정의했다. 자연어 처리 AI 모델 'GPT-3'도 여기에 해당한다. 이에 미국 브루킹스 연구소는 AIA가 오픈 소스 AI 시스템에 대한 법적 책임을 생성해 개발을 저해할 것이라고 주장하고 있다.

예들 들어 어떤 기업이 GPT-3를 이용해 통역 프로그램을 만들어 팔았는데 중대한 오역으로 피해가 발생했다면 AIA법에 따라 GPT-3 개발자에게 소송을 걸 수 있고, 이는 누구나 사용할 수 있도록 하자는 오픈 소스 기반의 AI 개발 위축을 초래할 수 밖에 없다는 얘기다. 

AIA법은 아직 최종안이 확정되지 않았기 때문에 이런 지적을 받아들여 내용을 수정할 수도 있다.

(이미지=셔터스톡)
(이미지=셔터스톡)

◆뉴욕시 채용AI 감사(Audit) 법 : 미국 뉴욕시는 1일부터 AI 채용프로그램에 대해서는 편향성을 정기적으로 감사하도록 강제하는 법을 시행할 예정이었다.

그러나 AI에 대한 감사는 전례가 없기 때문에 세부 규정을 다듬고 기업들에게 준비 기간을 부여하기 위해 4월 15일로 시행일을 연기했다.

뉴욕시는 지난 2020년 채용이나 인사에 대한 AI의 편향 위험에 대한 시민단체와 전문가들의 지속적인 문제 제기를 받아들여 이런 시스템에 대한 감사 활동을 의무화하는 법을 제정했다. 

뉴욕 기업들이 AI 채용 프로그램을 뜻하는 자동 채용 결정 도구(AEDT)가 인종과 성별 등에 대한 편견을 가지고 있지 않은지 시스템 개발자 외의 평가자로부터 정기적으로 감사받도록 하고 이를 따르지 않으면 벌금을 물리는 내용이다. 

◆생성AI 학습데이터에 대한 저작권 인정 소송 : 지난해 쏟아져 나온 생성AI들은 막대한 학습데이터를 공개된 출처로부터 가져다 쓴다. 웹이나 저작물, 사회관계망서비스(SNS) 등에서 긁어 모으기도 하고 게티이미지 등 스톡이미지 판매회사로부터 사서 쓰기도 한다. 

깃허브의 코파일럿은 프로그래밍 코드 일부를 입력하면 나머지를 만들어 주는 코드생성AI도구다. 오픈AI가 개발한 코드 생성 AI인 코덱스를 기반으로 상용화된 유료 서비스다. 이용료는 월 10달러, 연 100달러 수준이다.

이 코드생성 도구들은 깃허브에 스토리지에 오픈소스로 공개되고 축적된 대량의 코드를 학습데이터로 사용했다. 이런 무료 오픈소스 코드를 가져다가 유료 서비스를 만든데 대해 자발적으로 코드를 만들고 공유해온 오픈소스 활동가들이 분노했다. 

(사진=깃허브 코파일럿 홈페이지)
(사진=깃허브 코파일럿 홈페이지)

이 가운데 변호사이자 개발자인 매튜 버터릭 등은 코파일럿이 ‘대규모 소프트웨어 불법 복제’를 저질렀다면서 깃허브와 소유주 마이크로소프트 그리고 오픈AI에 대해 샌프란시스코 연방법원에 집단소송을 제기했다.

개발자들이 자신이 개발한 코드를 오픈소스로 공개하는 이유는 더많은 개발자 커뮤니티에 도움을 주기 위해서다. 하지만 여기에는 조건이 있다. 원작자와 출처 등을 명시해야 한다. 원고측은 이를 문제 삼았다.

이들은 깃허브가 수십억 줄의 오픈소스 코드를 가져다 코파일럿 프로그램을 훈련하면서 이같은 조건을 지키지 않았다고 지적했다. 특히 코파일럿을 훈련하는 과정에서 인기 오픈소스 코드 11개에 대해 이 조건을 준수하지 않아 개발자들의 권리를 침해했다는 주장이다. 

만일 미국 법원이 이 소송에서 원고들의 손을 들어준다면 코드뿐만 아니라 텍스트와 이미지, 비디오 등을 생성하는 AI 도구 전반이 저작권 위반의 위험에 처할 수 있다. 오픈소스를 비롯해 공개된 데이터들로 학습하는 원리는 이미 개발돼 있는 생성AI 도구들이 모두 따랐기 때문이다.

저작권 인정에 따라 학습데이터 확보가 어려워지면 앞으로 생성 AI의 개선이나 새로운 모델 개발이 제한될 수 있다. 생성AI를 기초모델로 하는 다양한 비즈니스 모델들도 상용화에 제동이 걸릴 수 있다. 이렇게 되면 개발자나 기업들은 다른 방식을 모색하거나 저작권자들과 협상에 나서야 할 것이다.

정병일 위원 jbi@aitimes.com

키워드 관련기사
  • "EU AI법이 오픈소스 개발 저해할 것"...美 전문가집단 주장
  • 뉴욕시, AI 감사 관련 세부 지침 발표
  • 생성AI 훈련 방식 둘러싼 첫 법정 다툼 열린다