인공지능(AI) 시스템이 인간의 의사 결정을 보완, 자동화 또는 대체해 가고 있다. 온라인 시스템을 통해 은행 대출을 신청하는 경우를 상정해 보자. 관련 정보를 입력하면 시스템이 대출 자격이 없다는 회신을 할 수 있다. 비슷한 프로필을 가진 친구는 같은 시스템에서 대출 승인을 받았다는데도 이런 일이 일어나는 것을 상상해볼 수 있다.
두 번째 시나리오를 살펴보자. 새로운 일자리를 찾기 위해 온라인 채용 시스템으로 이력서를 보내 적합하지 않다는 통보를 받는다. 자격이 없다고 여겨지는 동료는 합격했는데도 말이다. 공정하게 평가받았는지 의문을 가질 수밖에 없다. AI 시스템이 차별하지 않았는지 어떻게 확신할 수 있을까?
말레이시아 기반의 글로벌 미디어인 ‘스타’는 APU(아시아태평양기술혁신대학) 부총장이자 중국 칭화대 양쯔델타지역연구소 해외중국개발연구센터 연구원인 호친 쿠안 교수의 ‘AI, 공정할 수 있을까’라는 제목의 기고를 실어 AI 개발과 함께 공정성 교육이 병행될 필요가 있다고 강조했다.
사람의 의사 결정이 불공평하다고 여겨질 수도 있지만, 사람의 개입 없이 컴퓨터가 공정한 결정을 내리게 해서는 안 되는 것일까? AI는 사람의 지능이 일반적으로 요구되는 작업을 수행할 수 있는 기계, 하드웨어 또는 소프트웨어를 구축하는 데 관심이 있다. AI는 컴퓨팅 성능이 높아지면서 최근 빠르게 성장해 왔다.
오늘날 AI는 고용에서 질병 진단까지 필수적인 애플리케이션에 적용되고 있다. 현재 볼 수 있는 거의 모든 AI 애플리케이션은 특정 작업에 맞게 구축된 좁은 AI의 한 형태다. 예를 들어 자율주행 차량을 안내하도록 구축된 시스템은 체스 게임을 할 수 없다. AI 연구의 목표는 범용 인공지능(AGI)을 만드는 것이다. AGI는 자기 인식이 있고, 박식하며 지각을 갖춰야 한다.
인공지능이 안착하는 동안 머신러닝(ML)이라는 AI 분야에서 상당한 발전이 있었다. 시리, 코타나, 구글 어시스턴트 등의 오늘날 컴퓨팅 장치에서 사용할 수 있는 음성제어 개인비서 기능은 ML 기술을 사용한다.
바둑에서 사람을 이긴 딥마인드(DeepMind)의 알파고(AlphaGo) 소프트웨어와 같은 AI의 놀라운 성과에 대해 알고 있겠지만, 사회적 공정성과 형평성에 대한 심각한 우려를 제기하는 기사들도 있다. 사례들은 다음과 같다.
기계 편향과 관련해 프로퍼블리카(ProPublica)는 2016년 5월 23일자 온라인 기사에서 미국 전역에서 미래 범죄자를 예측하기 위해 사용되는 소프트웨어가 특정 사회 부문에 편중돼 있다고 보도했다.
뉴욕타임스는 2018년 2월 9일 ‘안면인식, 백인인 경우 정확’이라는 기사에서 MIT 미디어랩 연구에 따르면 사진이 백인일 때 특정 얼굴 인식 소프트웨어가 99%의 정확성을 제공하지만 피부색이 어두운 여성의 경우 최대 35%의 오차가 관찰됐다고 밝혔다.
2021년 6월 17일자 네이처 머신 인텔리전스 저널에 발표된 논문은 GPT-3 언어 모델에 의해 생성된 텍스트가 특정 신앙을 가진 사람들을 폭력과 연관시키는 경향이 있다고 공개했다.
분명히 ML은 편향된 결정에 시달릴 수밖에 없다. 감정이나 문화적 애착이 없는 기계가 더 나은 작업을 할 수 있을 것이라고 생각했는데 왜 이런 일이 일어날까?
ML 시스템은 데이터를 학습해 작업을 수행해야 한다. 데이터는 인적 활동 및 워크플로우에서 생성된다. 편견과 문화적 차이가 데이터에 들어있을 수밖에 없다. AI 시스템을 사람처럼 기능하도록 훈련할 때 데이터에 들어있는 편견이 구축된 모델에 영향을 미칠 것이다. 적용 시, 모델에 의한 결정은 학습에 사용된 데이터의 편향을 반영한다. 새 데이터에서 편향이 증폭되는 자가 강화 루프로 들어가게 된다.
ML 시스템이 공정성의 개념을 가지고 작동하도록 만드는 것은 여러 가지 이유로 어려운 일이다. 컴퓨터가 이해할 수 있는 수학적 형태로 공정성의 개념을 표현해야 할 수도 있다. 공정성에 대한 개념은 사람의 가치 체계에 크게 의존하기에 과제는 복잡하다. 한 연구에서는 비록 공정성 요건을 수학적 용어로 전환할 수 있다고 해도 일부가 맞지 않는 것으로 나타났다.
개발자는 편향적이지 않은 공통 기술을 사용해 ML 시스템을 ‘더 공정하게’ 만들려 한다. 이를 수행하는 비교적 간단한 방법은 인종 및 성별과 같은 민감한 속성을 빼는 것이다. 또 다른 방법은 공정성 목표를 달성하도록 ML 시스템의 결과를 수정하는 것이다. 일부에서는 이를 우대 정책으로 보고 논쟁을 벌일 수도 있다.
그렇다면 기계가 공정할 수 있을까? 그러려면 AI 기술을 인도적으로 만들어야 한다. 이를 시작하기에 훌륭한 장소는 대학이다. 대학의 기술 중심 프로그램이 부족하지 않기 때문이다. 학생들과 지도자, 미래를 조성하는 이들에게 소중히 여기는 가치를 희생하지 않고 인류를 위해 작동하는 기술을 개발하도록 가르쳐야 한다.
이를 위해서는 기술 분야와 사회 과학 간의 협력이 더욱 강화돼야 하며 분야 간 장벽을 없애야 한다. 예를 들어 AI 관련 강좌는 사회 정의 개념과 함께 교육해야 한다. 이를 신뢰할 수 있는 AI로 부를 수 있을 것이다. AI가 인간의 능력을 원활하고 안전하게 증대시킬 수 있는 미래를 설계할 필요가 있다.
AI타임스 이한선 객원 기자 griffin12@gmail.com
