10년후 안면인식기술, 자유·민주 참여 본질적 부식 시스템 간주

AI시스템 끔찍히 잘못돼 재앙 초래할 몇가지 중요 사건 일으켜

25년 내 톰 크루즈가 서비스 받듯 일반인도 AI비서 서비스받아

15년 내 실시간으로 사람말 이해하는 훨씬 정교한 비서 갖게돼

취업·대출·입국 결정···학생들에게 데이터세트 편향성 교육해야

형사사법에도 개입···설계·개발·배치 시 다양성·형평성 수반돼야

기업들, 데이터과학자·엔지니어·사회학자 등으로 AI감독위 구성
AI시스템이 서비스토록 설계된 커뮤니티에 미칠 영향 연구해야

"향후 10년내 현재 논란이 되고 있는 안면인식기술은 시민자유와 민주적 참여를 본질적으로 부식하는 시스템으로 간주될 것이다. 향후 지속가능한 AI를 위해서는 윤리적 가이드 이상의 것이 필요하다.  ···AI시스템이 사회 전 분야에서 활용되고 있지만 끔찍하게 잘못돼 재앙을 초래할 몇가지 중요 사건을 일으킬 것이다. 기업들은 데이터과학자·엔지니어·사회학자 등으로 AI감독위원회를 구성해 AI시스템이 서비스하도록 설계된 자사의 서비스 커뮤니티에 미칠 영향을 연구하고 대비해야 한다···15년 내 일반인도 톰 크루즈 같은 명사가 자신의 비서에게 서비스받는 것과 같은 극진한 실시간 통신·진료 서비스 등을 지금보다 훨씬 정교해진 AI비서를 통해 받게 될 것이다···AI가 취업·대출·입국을 결정하게 되는 만큼, 학생들에게 데이터세트의 편향성을 교육해 AI가 편향된 데이터로 교육받는 일이 없게 해야 한다···AI는 형사사법, 즉 경찰·사법·교도행정에도 개입하게 되기 때문에 AI설계·개발·배치 시 시스템 라이프사이클에 맞춘 다양성·형평성이 수반되도록 해야 한다···종종, AI는 긍정적인 의도를 가지고 있지만 의도하지 않은 결과를 초래한다."

월스트리트저널(WSJ)은 10일(현지시간) 6명의 AI분야 전문가를 통해 향후 10~25년 새 인공지능(AI)을 사용하는 사회의 기회와 도전에 대한 전망과 조언을 들었다. 이를 따라가 본다.

(사진=셔터스톡)

10년 후 안면인식기술은 시민 자유와 민주적 참여 본질적 부식하는 것으로 인식(케이트 크로퍼드: 뉴욕대 AI나우연구소 공동설립자, 마이크로소프트(MS) 연구부문 수석 연구위원)

10년 후 안면인식 기술은 시민의 자유와 민주적 참여를 본질적으로 부식시키는 것으로 간주될 것이다. 사람들의 범죄성을 탐지하거나 예측하거나 얼굴사진을 보고 사람들의 내적 감정 상태를 예측하려는 시도는 궁극적으로 비과학적이고 차별적인 것으로 비쳐질 것이다. 앞으로 AI가 안전하고 지속가능할 수 있도록 하기 위해서는 윤리적 가이드라인 이상의 것이 필요하다.

AI 시스템을 작동시키는 데 필요한 노동 관행은 무엇인가? AI 시스템이 작동하도록 하기 위해 사회는 스스로를 안전하지 않은 작업장에 자신을 배치하는 긱 노동자(필요에 따라 임시로 계약을 맺고 일을 맡기는 긱 경제 플랫폼에서 일거리를 구하는 노동자는)와 창고 노동자들, 그리고 기계 학습 알고리즘을 훈련시키기 위해 데이터를 태그하는 클릭 노동자에 의존하는가?


만약 그렇다면, AI시스템을 짓지 말아야 한다. 환경 비용을 고려해야 한다. AI를 조금 개선하기 위해 엄청난 양의 컴퓨팅 능력을 사용하는가? 이 AI 시스템 창조에 의해 누가 더 강력해질까? 이미 매우 강력한 자들의 손에 더 많은 힘을 실어준다는 것이 답이라면, 나는 우리가 이 시스템 창조에 매우 회의적이어야 한다고 생각한다.

10~25년 새 AI시스템이 끔찍하게 잘못돼 재앙적인 결과 초래(애덤 웬첼: AI 기술 스타트업 ‘아서 AI’‘ 공동 창업자, 캐피털원파이낸셜 머신러닝센터 설립자)

10~25년 사이에 AI 시스템이 끔찍하게 잘못돼 재앙적인 결과를 초래하는 몇 가지 중요한 사건들이 발생할 것이다. 예를 들어, AI 시스템이 주식 거래와 의료 분야에서 더 많은 영역을 통제하기 시작하면서, 이들 시스템 중 하나가 잘못될 것이다. 그들은 이미 항상 실수를 하지만, 기업에 상당한 비용이 들게 할 실수가 있을 것이고 최종 사용자들에게 상당한 영향을 끼치게 될 것이다. 희망이라면 사람들이 첫날부터 적절한 방호책을 만들어야 할 필요성을 인식하게 될 것이란 점이다. 기업들은 데이터 과학자, 엔지니어, 인류학자, 사회학자와 함께 인공지능 감독위원회를 구성해 시스템이 자신이 서비스하도록 설계된 커뮤니티에 어떤 영향을 미칠지 연구할 필요가 있다.

배치되는 대부분의 시스템의 경우 AI 모델이 결정을 내리는 이유를 이해하는 것은 매우 힘들다. 우리는 AI에 대한 설명이 필요가 있다. 그것은 금융이나 의료 등 민생에 영향을 미치는 모든 AI 시스템에 중요하다.

고객들이 통신사업자나 병원진료소 문의시 매우 친절하고,효과적이며, 빠른 도움받는다(앤드류 무어:구글 클라우드 AI 및 산업 솔루션 부문 부사장, 카네기멜론대 컴퓨터과학대학원 전 학장)

우리는 모든 사람들이 AI 기반의 디지털비서로부터 지금 당장 유명인의 콘시어지에게 서비스 받는 것처럼 해 줄 기술을 갖게 될 것이다. 고객들이 통신사업자나 병원진료소에 문의할 때, 그들은 매우 친절하고, 효과적이며, 빠르게 생각하는 도움을 기대하게 될 것이며, 기술적으로 이것이 가능할 것이다.

디지털 비서는 그들의 문제를 창의적으로 해결하고, 적절한 사람들과 접촉하며, 톰 크루즈나 누군가가 지금 데리고 있는 종류의 멋진 개인 비서처럼 창의적일 것이다. 거기까지 25년 정도 남았다. 또한 AI를 구축하는 모집단의 단일 하부단위(single subsection)를 만들지 않는 것이 중요하다. 우리는 올해 AI시스템 구축시 그렇게 만드는데 많은 노력을 들였다. 따라서 AI구축 기술을 배우기 위해 스탠포드나 MIT와 같은 화려한 장소가 필요 없다.

15년 안에 실시간으로 사람말 이해하는 훨씬더 정교한 가상요원 갖는다(아푸르브 색스나:JP모건 체이스 앤 코의 AI 및 머신러닝 서비스 글로벌 책임자)

우리는 경제 곳곳에서 AI가 활용돼 엄청나게 성장하는 것을 보게 될 것이고 금융 서비스도 별반 다르지 않다는 것을 보게 될 것이다. 예를 들어, 부정 행위를 탐지하고 위험을 관리 및 이해하며 고객의 은퇴 계획에 대해 조언하는 능력에서 AI가 엄청난 진전을 이루고 있는 것을 볼 수 있을 것이다.

사람들은 일반 인공지능으로 불리는 ‘사람들처럼 스마트한 AI 시스템을 갖게 될지’에 대해 뜨거운 논쟁을 벌이고 있다. 나는 이 일이 25년 안에 일어날 것이라고 믿지 않는다. 그것을 만드는 데 필요한 복잡성은 거기에 없다. 우리는 15년 안에 실시간으로 당신의 말을 이해할 수 있는 훨씬 더 정교한 가상 요원들을 갖게 될 것이다.

형사사법제도 편의성·효율성 판도 가를 빅체인저지만 위험성도 그만큼 커(르네 커밍스:범죄학자, AI 윤리학자, AI의 다양성을 촉진하고 도시문화와 인구통계가 AI의 설계와 개발에 포함되도록 촉진하는 자문기관인 도시 AI(Urban AI)의 창업자)

형사사법제도의 모든 측면, 즉 경찰·사법·교도행정에 AI가 참여하게 될 것이다. 형사 사법 산업은 모든 것이 더 똑똑하고, 더 명쾌하고, 더 빨리 처리되길 원할 것이다. 우리는 AI를 활용한 형사재판 의사 결정(조정·기소·배심원 선정)에서 진전을
보게 될 것이다. AI는 형사사법제도의 편의성과 효율성에 있어서 판도를 크게 바꿀 이른바 ‘빅체인저’다. 빠른 속도와 대규모로 작동하는 기술 능력은 형사 정의에 대한 비상한 장래성은 긍정적인 영향을 미칠 수 있다. 그러나 위험또한 그만큼 크다.
 
알고리즘에 기반한 의사결정 시스템은 시스템적 인종차별주의와 차별을 지속시키는 데이터로 구축되어서는 안 된다. AI의 설계·개발·배치와 관련해 라이프사이클의 모든 단계에서 다양성· 형평성 및 포함이 수반돼야 한다.

AI가 취업·대출·입국까지 결정···학생들에게 데이터세트 편향성에 대해 가르쳐야(테스 포스너:다양성 증대 및 AI 확산에 초점을 맞춘 비영리 단체인 AI4ALL 대표)

구직 사이트 인디드(Indeed)에 따르면, 2015~2018년 게시물 수를 바탕으로 분석한 결과 플랫폼에서 가장 빠르게 성장한 직종은 344%의 성장률을 보인 ‘기계학습 엔지니어’였다.

전 세계적으로 AI 연구자의 14%만이 여성이다. 그 숫자는 유색인종에서는 더욱 낮다. 어떤 면에서는 AI가 경제의 문지기가 되어 누가 취업하고 누가 대출에 접근하고 누가 입국을 하느냐를 결정하는 것이다.

학생들에게 AI 시스템을 구축하기 위해 올바른 데이터를 얻는 방법에 대해 가르치는 대신에, 그들에게 데이터 세트가 어떻게 편향될 수 있는지, 그리고 데이터가 어디에서 수집되는지에 대해 생각해 보라고 요청해야 한다. 종종, AI는 긍정적인 의도를 가지고 있지만 의도하지 않은 결과를 초래한다.

[관련기사] AI로 미래 범죄 고도화…’딥페이크‘ 가장 위험하다

[관련기사] “AI 성숙할수록 위험도 높아져”…딜로이트 설문 결과

키워드 관련기사
  • 반면교사···지난 10년간 발생한 최악의 인공지능(AI) 사고 5건은?