지난 11일 유엔의 핵심 산하 기구인 유네스코가 AI윤리 권고안을 마련하기 위한 국제전문가그룹을 출범시켰다. 이에 앞서 지난달에는 로마 교황청이 'AI 윤리를 위한 로마 콜(Rome Call for AI Ethics)'이란 이름의 백서를 발표했다.

AI윤리 관련 소식은 지난해부터 이어졌다. 유럽 연합은 지난해 말 ‘신뢰가능한 AI’를 위한 가이드라인을 선보였고, 미국도 지난달 AI 이니셔티브 백서를 내놓았다.

미국 국방부도 국방 분야 AI가이드라인을 개발 중이며, 우리나라도 지난해 말 AI윤리원칙을 발표한 바 있다.

코로나19 팬데믹(세계적 대유행) 와중에도 AI 윤리와 관련한 소식은 계속 이어져 왔다.

좀 더 들어가 보자. 유럽연합은 △인간 대리인과 감시 △기술적으로 강건하면서도 안전할 것 △프라이버시와 데이터 통제 △투명성 △다양성, 비차별성, 공정성 △환경 및 사회적 복지 △책임성을 AI윤리지침으로 제시했다.

미 국방부 전문가그룹은 △책임 △평등 △추적 가능 △신뢰 및 거버넌스 가능한 방식으로 AI를 사용해야 한다는 윤리준칙을 제안했고, 로마교황청은 AI의 윤리적 이용을 위해 필요한 6가지 원칙으로 △투명성 △포용 △책임성 △불평부당 △신뢰성 △보안 & 프라이버시를 제시했다.

우리나라는 △사람중심의 서비스 제공 원칙 △투명성과 설명가능성 원칙 △책임성 원칙 △안전성 원칙 △차별금지 원칙 △참여 원칙을 내세웠다.

많은 나라와 기관이 앞다퉈 발표하는 AI윤리정책을 보면, 윤리교과서에 나오는 추상적인 내용을 나열한 것 같다. 마음에 쏙 와 닿지는 않는다.

예를 들어 접근해 보자. 알고리즘 편향 문제는 대표적인 골칫거리다. 2015년 구글이 포토 서비스에 사용한 AI프로그램은 흑인 프로필을 ‘고릴라’로 인식했다. 데이터 인식의 오류였다. 또 재범 가능성을 판단하기 위한 목적으로 사용하던 미국 경찰 AI프로그램 '컴파스(Compas)'는 백인이나 부자보다 흑인 또는 빈민촌 거주자의 재범률을 더 높게 판정했다.

이같은 오류는 최근에도 이어졌다. 숙박공유업체 에어비앤비(Airbnb)는 고객 위험평가 알고리즘을 만들어 특허까지 받았다. 그런데 미국 비영리단체인 전자개인정보보호센터(EPIC)가 문제를 제기했다. 사용자의 디지털 기록을 편향적으로 판단해 특정 인종이나 소수자 박해에 악용할 수 있다는 주장이다.

문제는 이처럼 부당한 AI알고리즘이 앞으로도 계속 나올 가능성이 매우 높다는 것이다.

요컨대, 인간의 개입을 최소화하는 AI학습과정은 블랙박스다. 의료 및 헬스케어 분야, 자율주행차량, 법률 등 다양한 분야에서 AI시스템 오류로 중요한 의사결정이 잘못된다면 누가 책임질 것인가.

더구나 그 문제가 어디에서 비롯됐는지 알 수 없다면, 문제는 더 심각해질 수 밖에 없다. 그래서 제안된 것이  ‘설명 가능한 인공지능(XAI: explainable artificial intelligence)'이다. 물론, 기업 입장에서는 기업비밀을 포함한 모든 것을 투명하게 공개하는 것은 위험을 감수해야 하는 일이다.

국방AI는 가장 뜨거운 감자다. 로봇 AI개발자들은 지난 2015년 살인로봇 금지를 촉구하는 성명을 발표한 바 있다. 알파고를 개발한 딥마인드의 데미스 하사비스는 구글에 회사를 넘기면서 군사 목적으로 사용하지 않는다는 조건을 관철시킨 것은 잘 알려진 사실이다.

하지만 '킬러로봇'을 둘러싼 논쟁이 거센 와중에 올 초 미국이 살상용 드론으로 이란 참모총장을 살해하는 충격적인 사건이 벌어졌다. 실제로는 군사 목적의 드론이나 AI 개발이 이어져 왔음을 적나라하게 보여준 사례인 셈이다. 인류 생존과 직결된 문제로 비화될 가능성이 큰 문제다.

이미지 생성기술을 활용한 딥페이크(DeepFake)도 주요 이슈이고, 로봇의 전자인격을 둘러싼 논란이나 인공지능 의수를 몸의 일부로 인정할 것인가 하는 논쟁도 이어지고 있다. 사고로 의수가 망가지면 상해로 봐야 할까, 아니면 기물파손으로 봐야 할까. 생각해 볼 문제다.

시간이 좀 더 흐르면, 뇌에 칩을 넣어 컴퓨터와 연결하는 세상이 현실로 다가올 수도 있다. 사이보그 시대도 열릴 것으로 전망된다. 김효은 교수는 '인공지능과 윤리'라는 책에서 "향후 뇌-컴퓨터 인터페이스 허용범위의 문제, 불평등의 문제, 자아정체성 등 세 가지가 쟁점으로 제기될 것"으로 전망했다.

결론은 인간에게 해를 끼치지 않으면서 도덕적 판단까지 가능한 로봇을 만들어 낼 수 있느냐는 것이다.

‘사피엔스’의 저자 유발 하라리는 지능의 문제는 해결했지만, 도덕의 기반이 되는 의식의 문제는 전혀 손대지 못한 상태라고 보았다. 인간이 가진 도덕 관념조차 일관적이지 않은데, 인공지능에 어떻게 적용할지 판단하기란 쉽지 않은 일이다.

이쯤 되면 더이상 'AI윤리는 나와는 별로 상관없는 일'이라고 생각할 수 없게 된다. AI윤리가 이전에는 경험하지 못했던 새로운 사회의 틀이 될 것이라는 점에서 헌법만큼 중요한 사항임에 틀림없다. 진짜 중요한 건 눈에 들어오지 않는 법이다.

글쓴이

중앙일보 기자(공채31기). 카이스트 경영공학 박사과정 중 싸이월드 창업멤버로 벤처업계에 입문. SW 솔루션, 동영상, 통신 업체 등을 거쳐 과기정통부 산하 K-ICT 창업멘토링센터 CEO멘토로 활동했다. AI 정책, AI 스타트업, 디지털 헬스케어에 관심이 많다.

키워드 관련기사
  • 음성인식에 인종차별 존재...스탠포드 연구 결과
  • [AWS 리인벤트] “코로나 방역 효과 VS 감시‧통제 수단”…아마존 산업용 AI 서비스 논란