마이크로소프트, 페이스북, IBM 등 글로벌 IT기업에서 AI윤리를 담당하는 총책임자들이 24일 온라인으로 모였다. 조선일보가 개최하는 ALC(아시안 리더십 콘퍼런스) 웨비나 참석을 위해서다. 나타샤 크램튼 마이크로소프트(MS) AI최고책임자를 비롯해 노베르토 안드라데 페이스북 윤리정책부문 글로벌 총책임, 프란체스카 로시 IBM AI윤리부문 글로벌 총책임은 오전 10시부터 약 70분간 자사 AI 윤리 정책과 전반적인 현황을 주제로 이야기를 이어갔다.
◆ 거대 글로벌 IT 기업들의 AI윤리 연구 현황은?
웨비나 사회는 서울대 교수이자 한국인공지능법학회장을 역임하고 있는 고학수 씨가 맡았다. 고 회장은 먼저 각 패널들에게 3개 기업이 구축하고 있는 AI윤리 연구 과정에 대해 질문했다. 첫 발언자로 나선 크램튼 MS AI최고책임자는 “우리회사는 2016년부터 AI윤리에 관한 연구를 목표로 위윈회를 구성하는 등의 노력을 하고 있다”며 “사내 연구 결과는 오픈소스로 공개해 외부에서 필요할 때마다 찾아볼 수 있다”고 덧붙였다.
크램튼은 “수십만명이 자연어에 기반한 챗봇을 이용하는 AI 성공사례가 증가하고 있지만, 이를 제한하는 정부규제도 필수”라고 강조했다. 이어 “외부 전문가들이 모인 거버넌스(경영구조)를 구성해 AI 이용사례를 검수하고, 원리원칙에 따라 AI에 접근하는 연구를 지속적으로 실행 중”이라고 말했다. MS는 또 정책 수립 당시 미 정부에 자문한 내용을 책자로 발간해 ‘AI 개발은 한 기업의 능력으로만 완성되지 않는다는 것’을 설명하는 사례도 보여주고 있다.
안드라데 페이스북 윤리정책부문 책임은 사내에서 AI책임성을 어떻게 구현 중인지, 그 내부역할과 활동에 대해 설명했다. 현재 이 기업에서는 ‘AI윤리는 내부에서 시작돼야 한다’는 방침 아래 다양한 연구부서, 팀 등이 가동되고 있다. 안드라데 책임에 따르면 페이스북은 2015년 연구소를 설립했는데 ‘AI 전담연구소’라고 해도 과언이 아닐 만큼 모든 연구 중심에 AI가 있다. 이밖에도 페이스북은 사회·정치분야 담당자들이 모여 AI와 머신러닝 시스템을 투명하게 설계하기 위해 새로운 거버넌스를 만들었다.
내부에서 AI윤리 기반을 탄탄히 다진 후 페이스북은 2019년 뮌헨기술대학교와 합작해 또다른 AI연구소를 론칭했다. 안드라데 책임은 “이 시기부터 본격적으로 외부적 노력에 힘을 쏟기 시작했다”고 자평했다. 뮌헨기술대와 공동으로 운영하는 AI연구소 외에도 페이스북은 OECD AI 정책보관소 설립 기여, 싱가폴 정부에 AI윤리 기준 마련을 위한 컨설팅 지원 등 국제사회단체 및 해외국가와 협력해 AI윤리 솔루션 구축에 힘쓰고 있다. 올해 안에 유네스코에 제공한 AI윤리 권고안이 정식으로 채택될 예정이다.
프란체스카 로시 IBM AI윤리 부문 글로벌 총책임은 자사 AI윤리 방향에 대해 “모든 활동은 인간중심이라는 명제 하에 AI윤리를 재정립하기 시작했다”고 말했다. 이어 로시는 “2018년 이를 책임지는 새로운 위원회가 출범했고, 이후 IBM의 AI윤리 활동은 기술에만 초점을 두지 않고 투명성, 보안, 설명가능한 인공지능(XAI) 등 고객의 입장을 기반한 연구로 바뀌었다”고 밝혔다.
XAI란 인공지능이 최종적으로 판단해 내린 결과를 사람이 정확히 이해하고, 설명할 수 있는 확장된 AI 개념이다. 어떠한 과정을 거쳐 AI가 결과를 도출해냈는지 사람이 설명할 수 있어야 하므로 고객으로부터 신뢰를 높일 수 있다. 로시 책임은 “IBM은 고객의 견해를 가장 중요하게 생각한다”며 “AI에 관한 부정적인 사건이 발생했을 때, 사회적으로 적절한지 여부부터 고객의 사용방식을 종합적으로 검토해 그 최종결정을 고객에게 전달한다”고 강조했다. 고객에게 AI윤리에 관한 친숙성을 확대시키는 한편, XAI 개발도 꾸준히 이어가는 방법이다.
타 기업과 마친가지로 IBM 역시 국제사회, 다양한 산학 기관과 AI윤리 구축을 위한 협업을 진행 중이다. 로시 책임은 MIT에 신설한 AI연구소와 유럽집행위원회에 컨설팅을 맡은 이력을 예로 들었다. 로시는 또 글로벌 기업으로서 AI윤리 관련 문화를 조성하고, 세계 여러 지역에 AI 생태계를 조성하는 사례도 언급했다.
그에 따르면 고유한 전통과 역사에 따라 우선순위는 지역마다 다를 수 있다. 각기 다른 문화적 맥락과 뉘앙스를 파악해 그에 맞는 AI 환경을 구축하고, 윤리를 정립하는 것이 중요하다. 로시 책임은 “IBM은 현재 그와 같은 원칙 정립 시기를 지나 구체적으로 어떻게 구현할 지를 고민하고, 모든 과정을 아우르는 이니셔티브 출범에 주력하고 있다”고 강조했다.
◆ AI윤리, 왜 그렇게나 중요한가요?
고학수 회장의 두 번째 질문은 ‘AI윤리가 중요한 이유’에 대한 것이었다. 이에 로시 IBM 윤리 책임은 “최근 보고서에 따르면 AI의 가치는 2030년 약 10조달러에 육박할 것으로 예상된다”며 “머신러닝 등 여러 AI 기술이 점차적으로 보급될수록 잘 사용하는 것이 중요한데, 올바른 AI윤리 정립이 이루어져야 가능하다”고 역설했다. 오용을 견제하는 동시에 투명성과 공정성을 확보하는 길이야말로 AI윤리가 제시하는 방향이라는 설명이다.
안드라데 페이스북 책임은 자사 업무를 예로 들어 발언을 시작했다. 소셜미디어 기업인 페이스북에서 AI는 상당히 큰 부분을 차지하고 있다. AI가 없이는 아무것도 못 할 정도로 엔지니어링부터 인프라에까지 AI가 촘촘히 연결돼있다. 플랫폼에 보이는 뉴스피드, 광고도 사용자 취향에 맞춰 제공되는 알고리즘 기반인 만큼 AI로 움직인다. 보안과 서버안정을 위해서도 AI가 필요하다. 이 모든 프로세스를 수행할 때 가장 기초가 돼야 하는 것이 AI윤리다. 안드라데 책임은 “AI 기술은 단순히 방대한 양의 데이터를 학습시키는 차원이 아니다”라고 말하며 “인간이 추구하는 가치를 기술(기계)에게 전수한다는 사명의식이 깔려있어야 한다”고 주장했다.
크램튼 MS AI최고책임자는 AI윤리가 중요한 이유에 대해 “AI윤리는 각종 이슈를 경험하며 중요한 기로에 서 있다”고 말한 뒤 “추론이나 지각(知覺) 등 인간만의 고유한 능력이 AI에게도 학습되는 만큼 공정을 가장 염두에 두고 개발해야 한다”고 말했다. 크램튼은 “개발자들은 AI 시스템의 기본 원리를 완벽히 이해하고, 이를 바탕으로 특정 집단이나 지역에만 유리한 기술이 아닌 모두에게 공평하게 적용되도록 개발해야 한다”고 강조했다. 사람에 의해 만들어졌으니, 사람을 위한 기술이어야 한다는 것이다.
최근 성 소수자나 여성 등 사회 약자를 향한 혐오발언으로 뭇매를 맞고 사용이 금지된 국내 챗봇 ‘이루다’는 이들이 말하는 윤리와 공정성과 거리가 먼 AI기술이었다. 크램튼은 이같은 사건을 안타깝게 생각하며, “사람의 생각에 깃든 편견과 분노를 AI가 그대로 학습하는 경우가 빈번해진다”고 꼬집었다. 이어 “개발자는 ‘왜 챗봇이 이러한 불공정을 배울까’ 하고 끊임없이 물음을 던지며 엄정한 과정을 거쳐 제품을 개발해야 한다”고 강조했다. 또 소비자들은 “사람이 아닌 기술과 대화 중이라는 것을 자각하며, 챗봇이 모든 상황을 사람처럼 유연하게 제어할 수 있다고 생각하면 안 된다”고 당부했다.
이들은 공정하다는 것이 경우에 따라 다르게 규정될 수 있다는 것도 인정했다. 한 예로 로시 IBM 윤리책임은 은행에서 대출심사를 받을 때 AI가 적용되는 사례를 언급했다. 여성과 남성, 재정적 상황, 거주 지역 등 항목별로 필요한 모든 데이터를 ‘편향 없이’ 학습시켰다 해도, 100 가지 케이스 중 10여 가지는 오류날 가능성도 있다는 것. 로시는 “기업에서 공정한 데이터셋을 구축했다 해도, 다른 공정성 요소로 인해 어느 집단, 개인은 불공평 하다고 불만을 느낄 수 있다”며 AI윤리도 완벽할 수 없음을 상기시켰다.
안드라데 페이스북 책임도 이에 크게 공감하며 “그럴수록 엔지니어, 외부 법조계, 철학자 등 윤리 전문가나 학자, 시민단체와의 지속적인 대화가 필요하다”고 역설했다. 그는 “AI 시대가 막이 오르면서 각 IT 기업이 윤리적 딜레마에 빠지는 것은 당연한 수순”이라며 “그렇기에 기업 내 법무팀, 개발팀은 끊임없이 외부와의 논의를 통해 어떠한 올바른 방법으로 자사 제품을 서비스화 할 수 있을지 해결책을 찾아야 한다”고 말했다.
AI타임스 박혜섭 기자 phs@aitimes.com
