유럽연합(EU) 집행위원회가 인공지능(AI) 기술 신뢰성과 윤리 원칙을 준수하기 위해 논의한 'EU AI 규제안'을 내년 중으로 입법한다. 미국도 지난 4일 'AI 윤리 지침'을 발표하며 AI 규제에 대한 청사진을 제시했다.

국내에서도 AI 법안 마련에 시동을 걸었다. 국가인권위원회는 AI 정책 수립에 필요한 인권 가이드라인을 내놓은 바 있다. AI 기술 편향성과 신뢰성을 검증해야 할 필요성이 높아지고 있다.

AI타임스는 엠레 카짐(Emre Kazim) 영국 유니버시티칼리지런던(UCL) 연구원을 온라인에서 만나 AI윤리에 대한 그의 생각을 들어보았다.

엘레 카짐 연구원은 홀리스틱AI 최고운영책임자(COO)다. AI 윤리를 연구하며 AI모델 신뢰성 검증 기술도 개발하고 있다. AI 기업이 지금보다 높아질 AI 규제안에 대비할 수 있는 기술이다. [편집자 주]

엠레 카짐 영국 유니버시티칼리지런던(UCL) 연구원
엠레 카짐 영국 유니버시티칼리지런던(UCL) 연구원

"내년에 유럽연합(EU) AI 규제안이 입법되면 세계 AI 시장에 미치는 영향이 클 것입니다. AI 알고리즘의 투명성과 책임감, 설명 가능 여부 등을 검증할 수 있는 시스템 개발을 확대해야 합니다."

엠레 카짐 박사는 "AI 기업이 해외 시장에 진출하기 위해서는 이제 기술력만 가지고는 부족하다"면서 신뢰성 검증 시스템 중요성을 강조하는 것으로 말문을 열었다. 

기업은 자신이 개발한 AI 기술이 정치, 경제, 사회에 미치는 영향에 대해서도 책임을 져야하는 시대가 왔다는 것이다.

"EU가 만든 AI규제 법안이 이전보다 구체화되기는 했지만 여전히 맞춤형이라기 보다는 수평적인 규제에 초점을 맞추고 있습니다. 아직 완전하지는 않아요."

EU AI 규제안에 대해서는 '아쉽다'는 반응을 내놨다. AI 윤리를 연구하는 입장에서 법을 좀 더 세밀하게 나누는 것이 좋다는 의견이다. 

EU AI 규제안은 AI에 대한 위험을 ▲허용할 수 없는 위험 ▲고위험 ▲제한적 위험 ▲낮은 위험으로 나눴다. 위험도에 따라 규제를 다르게 적용한다. 그는 이를 너무 수평적인 구분이라고 지적한다.

예를 들어 낮은 위험에 속하는 AI 기술이지만 목적에 따라 고위험에 포함할 수도 있고, 그 반대 경우도 있을 수 있다는 것이다. 입법이 완료되기 전에 분류 방식을 더 세밀하고 구체화할 필요가 있다는 것이 그의 주장이다.

그러면서 그는 "향후 한국도 AI 규제 방안을 효과적으로 입법하려면 산업별 '맞춤형 규제'가 필요하다"고 조언했다. 구체적이고 유연할수록 좋다는 설명도 곁들였다.

카짐 박사는 AI와 철학이 밀접히 연관됐다고 본다.
카짐 박사는 AI와 철학이 밀접히 연관됐다고 본다.

엘레 카짐 박사는 영국 캐임브릿지 대학에서 화학물리학을 전공하고, 킹스컬리지에서 철학 석·박사를 했다. 그가 AI 윤리와 인연을 맺은 것은 박사 과정을 하면서 만난 친구 덕분이다. 

머신러닝을 전공하는 친구를 만나 AI와 윤리를 결합, AI 모델의 신뢰성 검증을 해주는 스타트업 홀리스틱AI를 2020년에 창업했다. 지금은 UCL 컴퓨터공학부 디지털윤리과에서 AI 윤리 연구도 겸하고 있다. 

AI 윤리에 대한 그의 생각을 물었다. 그는 "AI 윤리란 인간이 AI를 어떻게 받아 들여야 하는지, 문제가 생기면 누가 어떻게 해결해야 하는지, 민주적이고 이성적인 해결법은 무엇인지에 대해 생각하는 분야"라며 "철학이 가장 효율적인 잣대다"고 말했다.

철학이야말로 AI 분야에서 무엇이 윤리적이고 윤리적이지 않은지 그 어떤 분야보다 올바르게 판단할 수 있는 도구라는 것이다. 철학 박사다운 답변이었다. 

카짐은 EU AI규제안에 대한 아쉬움도 밝혔다.
카짐은 EU AI규제안에 대한 아쉬움도 밝혔다.

그가 최근 집중하는 분야는 AI 알고리즘 리스크 관리 솔루션을 고도화하는 일이다. 홀리스틱AI가 만든 AI 기술 신뢰성 검증 솔루션이다. AI 알고리즘을 비롯해 모델 신뢰성, 투명성을 자동으로 판단해 알려준다. 판단 항목은 EU AI 규제안 기준이다. 결과도 수치화 해 알려준다. 해당 솔루션을 만든 사람은 홀리스틱AI에 몸 담고 있는 기술 엔지니어, 법조인, 정책 자문단 등이다. 지금까지 100개 이상의 AI 기업을 자문한 경력이 있다.

미국 뉴욕시에서는 내년 1월부터 AI 채용 시스템을 사용하는 기업은 AI 알고리즘에 편향성이 없다는 검증서를 매년 제출해야 한다. 뉴욕시가 최근 관련 법안을 통과시켰다. 검증서는 제 3기업이 제공해야 한다. 

이에 홀리스틱AI는 검증서를 제공하는 역할을 할 수 있는 맞춤형 서비스를 올해 새로 도입했다. 

AI 윤리 기초 학문에 집중해야 할 필요성을 강조했다. 
AI 윤리 기초 학문에 집중해야 할 필요성을 강조했다. 

그는 또 "AI 윤리 연구의 기초를 튼튼하게 하려면 학계의 노력도 필요하다"며 "기초 과학이 탄탄해야 응용과학이 발전하고 사회에 도움이 되는 것처럼 AI 윤리 연구도 기초 학문에 집중할 필요가 있다"고 말했다.

심도 있는 AI 윤리 연구도 좋지만 우선은 AI 윤리가 무엇인지 명확한 정의를 내리는 등 기초 학문에 집중해야 한다는 이야기다.

이어 "인간과 AI가 앞으로 관계를 어떻게 형성해 나갈 것인지, 또 이에 따른 사회적 파장은 어떻게 나타날 것인지 등을 구체적으로 파헤쳐보고 싶다"며 인간과 AI 의 관계에 대한 향후 연구 계획을 밝혔다.

"우선은 AI 알고리즘과 법에 대한 연구에 나설 예정입니다. 단순한 법 연구가 아니라 AI 알고리즘이 갖는 법적 책임과 사회에 미치는 영향을 연구하려고 합니다."

그러면서 그는 "AI 기술 검증 산업은 시작 단계에 불과하지만 앞으로 EU AI 규제안을 비롯한 관련 법이 발효되면 크게 활성화 될 것"이라면서 "홀리스틱AI처럼 AI 알고리즘이나 모델 신뢰성을 검증하는 기업과 인력이 늘어나야 한다"고 강조했다.

김미정 기자 kimj7521@aitimes.com

[관련 기사]LG, AI 윤리 점검 TF 발족...연구진 대상 윤리원칙 교육 강화

[관련 기사]서울대, 메타와 손잡고 메타버스 윤리 연구 본격화

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지