"AI가 내린 결정, 사람들은 온전히 받아들일 수 있을까?"
사람들의 신뢰 없이 AI 사회적 도입 어려워
AI 상용화 위해선 투명성·공정성·안정성 향상 필요
"지금은 AI 청동기 시대, 신뢰성 위한 기술 발전 이뤄져야"

'신뢰할 수 있는 인공지능' 책을 출간한 한상기 테크프론티어 대표. (사진=김동원 기자)
'신뢰할 수 있는 인공지능' 책을 출간한 한상기 테크프론티어 대표. (사진=김동원 기자)

A씨는 원하던 회사 입사 면접에서 떨어졌다. 인공지능(AI) 평가 면접에서 낮은 점수를 받았다. AI는 A씨를 업무적으로 집중도가 떨어지고 장기적으로 회사에 위협을 줄 수 있는 사람이라고 평가했다. 회사에 대한 열정과 노력은 모두 무시했다. 왜 이런 평가를 했는지에 대한 설명은 하지 않았다. A씨는 AI가 내린 평가를 고스란히 받아들일 수 있을까?

B씨는 장기를 이식받아야 살 수 있다는 병원의 통보를 받았다. 운이 좋게 앞 순번 환자에게 가기로 한 장기가 해당 환자와 맞지 않아 B씨에게 기회가 올 것이란 병원의 얘기를 들었다. 하지만 B씨에게 기회가 오지 않았다. AI가 환자 위험도 등을 분석한 결과 B씨보다 다른 환자가 더 먼저라고 평가했다. B씨는 AI의 이러한 평가에 쉽게 수긍할 수 있을까?

알파고가 대중에게 알려진 이후 AI의 기술발전 속도는 그 어느 때보다 빨라졌다. 과거 전문 영역에서 사용됐던 AI 기술은 이제 일상에서 활용되기 시작했다. 네이버와 유튜브, 넷플릭스 영상을 사용자에 맞춰 AI가 추천하고, 채용에도 AI 평가가 이뤄지는 AI 면접이 등장했다. 배달원을 비롯한 직장인의 근무 평가를 AI가 진행하는 경우도 있다.

그런데 우리는 이 AI가 내리는 추천과 평가를 그대로 받아들일 수 있을까? AI가 의료진단, 치료방식, 채용방식 등을 제안한다면 이를 용납할 수 있을까?

쉽지 않은 문제다. 이미 많은 사람은 유튜브 추천 알고리즘 등에 의문을 품고 있다. AI 면접 결과에 대해서도 올바른 설명을 요구하는 경우가 많아졌다.

최근 '신뢰할 수 있는 인공지능' 책을 출간한 한상기 테크프론티어 대표는 사람들이 AI가 내린 의사결정 지원을 신뢰할 수 없다면 AI의 사회적 도입은 어렵다고 설명한다. 또 이 문제를 해결하거나 최소화하기 위해서는 '기술적' 접근이 필요하다고 강조한다. AI 신뢰성을 위해 국가와 기업에서 마련한 가이드라인은 단지 가이드라인일 뿐 이를 구체적으로 구현해 준수 여부를 확인하기 위한 기술적 노력이 필요하다는 게 그의 주장이다. 

AI 엔지니어 출신이자 인공지능 윤리를 위한 다양한 연구 과제를 수행해 온 한 대표의 주장은 AI 신뢰성 문제를 좁힐 수 있는 열쇠로 작용할 가능성이 크다. AI 신뢰성 문제는 AI 개발을 해보지 않은 법학자나 윤리학자가 섣부르게 답을 내릴 수 없고, 관련 지식이 없는 AI 개발자가 공감할 수 있는 영역이 아니기 때문이다. 

그렇다면 한 대표는 최근 출간한 책을 통해 어떤 메시지를 전하려고 하는 걸까? 서울시 강남구의 한 책방에서 그의 얘기를 들어봤다.

한상기 대표는 "사람들이 AI가 내린 의사결정 지원을 신뢰할 수 없다면 AI의 사회적 도입은 어렵다"고 말했다. (사진=김동원 기자)
한상기 대표는 "사람들이 AI가 내린 의사결정 지원을 신뢰할 수 없다면 AI의 사회적 도입은 어렵다"고 말했다. (사진=김동원 기자)

Q. 삼성전자 전략기획실과 다음커뮤니케이션 전략대표 등으로 근무했다. AI는 언제부터 관심을 갖게 됐나.

한국과학기술원(KAIST)에서 AI 분야 박사 학위를 받았다. 삼성전자에서 하는 음성인식 프로젝트에 참여하기도 했다. 석사 학위는 문자인식으로 논문을 냈다. AI를 연구하던 시기는 1989년도다. AI의 신석기 시대에 많은 연구를 했다.

Q. 1980년대 후반을 AI 신석기 시대라고 한 점이 흥미롭다. 그럼 지금은 어느 시대라고 보는가.

지금은 딥러닝을 추구하는 시대다. 지금 시기는 청동기 시대라고 본다. 신석기 시대와 청동기 시대 패러다임이 다른 것처럼 AI도 1980년대와 지금 많은 변화가 있었다. 지금을 청동기 시대라고 표현한 건 앞으로도 많은 변화가 있을 것이라고 보기 때문이다.

Q. 오래 전부터 AI를 연구해온 것이 느껴진다. 사실 AI가 많이 알려지기 시작한 건 알파고 이후부터 아닌가?

맞다. 카이스트와 세종대에서 교수로 활동한 적이 있는데 AI에 대해 2016년부터 강의를 했다. AI가 새로운 파동을 가져올 것이라는 느낌을 받았기 때문이다. 그러다가 알파고로 인해 AI가 많이 알려졌고, 많은 미디어에서 출연해달라는 연락을 받았다. 당시 체코 여행 중이어서 방송에 나가지 못했는데 여행을 다녀오니까 많은 딥러닝 전문가가 생겼더라.(웃음)

Q. 최근 출간한 '신뢰할 수 있는 인공지능' 책 얘기로 넘어가서 이 책을 출간한 이유는 무엇인가.

나도 잠시 인터넷 얘기로 넘어가겠다. 인터넷이 분명 인류에 많은 혜택을 가져왔고 많은 발전을 이루게 한 것이 사실이다. 하지만 요즘 보면 인터넷이 사람을 망치고 있다는 생각도 든다. 소셜 미디어가 발전하면서 사회적 갈등이 나타나고 있고, 새로운 문제가 양산되고 있다. 페이스북과 인스타그램이 10대 여성들에게 얼마나 악영향을 주고 있는지에 대한 해외 저널의 탐사보도도 있지 않았는가.

이러한 문제는 우리가 소셜 미디어를 받아들일 준비가 되지 않았는데 기술이 급속도로 개발됐기 때문이라고 생각한다. AI는 이보다 더 큰 문제를 줄 것 같다. 그래서 AI 관련 가이드라인 개발 등에도 여러 번 참여했었는데 이를 보다 더 잘 설명하면 좋을 것 같았다.

사실 인문·사회학자들은 기술을 잘 모른다. 기술자들은 윤리, 신뢰성 이런 부분을 생각하기보다 기술을 개발해 돈을 벌 생각이 먼저다. 하지만 이 문제는 결코 쉽게 넘어갈 수 있는 영역이 아니다. 그래서 누군가는 이 문제를 계속 추적해야 한다는 생각에 책을 쓰게 됐다.

한상기 대표는 "AI를 받아들일 준비가 되지 않았는데 기술이 보급될 경우 사회 문제를 양산할 수 있다"고 염려했다. (사진=김동원 기자)
한상기 대표는 "AI를 받아들일 준비가 되지 않았는데 기술이 보급될 경우 사회 문제를 양산할 수 있다"고 염려했다. (사진=김동원 기자)

Q. 책을 읽어보니 해결책을 제시하기보단 과제를 던져주는 것 같은 느낌이었다.

맞다. 이 책에서 나온 주제를 AI 관계자, 법 관련자, 정부 등에서 한 번 연구해봤으면 좋겠다는 생각으로 책을 썼다. AI 관계자들이 모인 회의를 가보니 혁신적인 내용은 없고 결국 '얼마만큼 정확도를 더 높이자'는 등의 식이더라. 정확도를 높이는 건 큰 문제가 아니다. 이미 남들이 간 길을 가기보다 새로운 혁신적인 길이 필요하다.

생각을 해보자. 한 기업이 상당히 높은 정확도를 가진 AI 기기를 내놨다. 그런데 그 기기가 문제를 일으켰다. 얼마 전 문제가 된 이루다처럼 셧다운(업무정지)시켜야 하는 상황이 됐다. 그 회사 경영진은 이 문제에 책임을 져야 한다. 개발자나 관계된 사람들도 마찬가지다. 앞으로 이런 일은 많이 발생할 수 있다. 이런 근본적인 문제를 먼저 해결하기 위한 연구가 이뤄질 필요가 있다.

Q. 얘기를 들었을 때 기업에서 AI 신뢰성 문제에 많은 노력을 하지 않는다고 느껴진다.

물론 노력은 하겠지만 부족하다. 구글은 검색 알고리즘이 어떻게 구동되는지 알려주는 투명성에 대한 리포트가 200페이지가 나온다. 그런데 네이버 뉴스검색 알고리듬인 '에어스'의 투명성 대한 설명은 1페이지밖에 없다.

전에 자문위원회 활동을 하면서 구글과 네이버를 모두 부른 적이 있다. 그 자리에서 네이버 관계자에게 물어봤다. 왜 투명성에 대한 리포트가 1페이지냐고. 그랬더니 "구글에 비해 돈이 없고 실력도 부족해서"라고 하더라. 그런데 사실 네이버가 돈이 없는 기업이 아니다. 이런 문제에 대해 해결해야겠다는 경영진의 의지가 없는 것이 아닐까? 이런 부분에 노력이 있어야 한다고 본다.

Q. 투명성과 관련해서는 전에 '얼마만큼 알고리듬을 공개할 수 있느냐'라는 논란이 있었던 적이 있다. 알고리듬 공개 여부가 중요한가.

나라면 알고리듬 다 공개할 것 같다. 알고리듬 코드 다 공개해봐야 이해할 사람이 없다. 코드가 중요한 게 아니고 데이터다. 사용한 데이터가 무엇인지 얘기해주지 않으면 AI가 어떻게 작동했는지 알 수 있다.

투명성이라고 모든 걸 공개하라는 것이 아니다. 다 공개하라는 것은 불가하다. AI로 사람들의 만족도를 조사했을 때 적어도 조사한 분포 등은 공개를 하라는 것이다. 얼마나 AI 모델이 자주 업데이트가 되었는지, 업데이트 과정에서 얼마나 많은 데이터를 학습시켰는지 등은 공개가 돼야 한다.

Q. 투명성은 AI 신뢰 문제에 정말 중요한 문제 같다. 책을 보면 투명성 외에도 공정성 문제를 많이 강조했다.

공정성은 차별이 없어야 한다는 것과 같다. AI가 모든 사람 얼굴을 잘 인식할 수 있을까? 과거 한 기업에서 백인은 잘 인식했지만, 흑인은 인식하지 못했다. 공정하지 않은 문제다.

유럽 배달 서비스인 딜리버루 같은 경우에는 AI 평가 시스템 '프랭크(Frank)'를 활용해 라이더의 근태 평가를 했는데 질병이나 파업에 따른 결근은 구별하지 못하고 평점에 반영했다. 노동자는 이 문제에 반발했고 법원은 기업에 1인당 5만 유로의 손해 배상금을 지급하라고 했다. 이 부분도 직원평가에서 AI가 공정하지 못했다는 것을 보여준다.

AI 면접도 마찬가지다. 과연 AI가 사람들을 공정하게 평가할 수 있을까? AI의 가장 큰 단점은 과거 데이터를 이용한다는 것이다. 그럼 우리 과거를 살펴보자. 여자보다 남자를 선호하거나 학연·지연을 중시하는 상당한 차별이 있었다. 그 데이터를 그대로 접목했을 때 과연 면접이 제대로 이뤄질지는 미지수다.

한상기 대표는 "100% 공정한 인공지능은 존재할 수 없다"고 밝혔다. (사진=김동원 기자)
한상기 대표는 "100% 공정한 인공지능은 존재할 수 없다"고 밝혔다. (사진=김동원 기자)

Q. 그렇다면 기술개발이 이뤄진다면 100% 공정한 AI가 등장할 수 있다고 생각하나?

세상에 100% 공정한 사람이 없고 기준도 없기 때문에 불가하다고 생각한다. 그러면 어떻게 할 수 있을까? 사회적 기준점 이상의 알고리즘이 개발돼야 한다. 우리가 대통령을 뽑을 때 시민 중에 괜찮은 사람을 뽑지 않는다. 후보로 나온 사람 중에 그나마 괜찮은 사람을 뽑는다. AI도 마찬가지다. 얼굴인식을 예로 들면 모든 인종과 성별에서 몇 퍼센트 이내 차별이 없고, 공정하다고 생각하는 AI를 사용하는 것이다. 그 기준점은 사회적 합의로 마련돼야 한다.

Q. AI 공정성을 위한 장치도 마련돼야 할 것 같다.

그래서 필요한 게 차별금지법이다. 미국에서는 차별금지법이 있다. 애플이나 구글, 마이크로소프트 등에서 AI로 인종이나 남녀를 차별했다면 그 기업은 상당한 과징금을 물게 되어 있다. 그래서 그 기업들은 더 조심할 수밖에 없다. 그런데 우리나라는 차별금지법이 없다. 어떤 기준이 없다. 그래서 이 법이 마련돼야 한다.

Q. 신뢰 문제에 대해선 안전성도 빼놓을 순 없을 것 같다.

맞다. AI가 신뢰를 받기 위해선 철저한 보안도 이뤄져야 한다. 만약 AI가 해킹을 당해서 공정한 평가를 이루지 못했을 때 많은 사회적 문제가 발생할 수 있다.

Q. AI가 많이 개발되고 있지만, 사람들의 신뢰 속에 사용되려면 아직 갈 길이 먼 것 같다.

그래서 현재 AI 시대를 청동기 시대라고 생각한다. 아직 발전해야 할 부분이 많다. 그리고 얼마나 정확도를 높일 수 있는지 부분이 아니라 실제로 사용할 수 있는지 등에 대한 연구가 많이 이뤄져야 한다. 이를 위해 AI 관련자와 정부 관계자들이 이 책을 보고 많은 연구를 했으면 좋겠다. 본인 역시 기회가 된다면 개정판을 통해 더 많은 부분을 보여줄 수 있도록 노력하겠다.

한상기 대표는 서울대 컴퓨터공학과를 졸업하고, 카이스트에서 인공지능 분야 중 지식 표현에 관한 연구로 박사 학위를 취득했다. 삼성전자 전략기획실과 미디어 서비스 사업팀에서 인터넷사업을 담당한 후, 2003년 다음커뮤니케이션 전략대표와 일본 법인장을 역임했다. 두 번의 창업을 했으며, 카이스트 문화기술대학원 전문교수, 세종대학교 교수를 거쳐 2011년부터 테크프론티어 대표를 맡고 있다.

현재 기업 전략컨설팅, 정부 정책 과제 수행과 강연을 하며, 기술 분석가로 활동하고 있다. 여러 매체에 기술 관련 칼럼을 기고하고 있으며, 데이터 경제 포럼 위원, AI 데이터 총괄위원 등 다양한 정부 정책 관련 위원회 멤버로 활동하고 있다. 저서로는 '한상기의 소셜미디어 특강', '인공지능은 어떻게 산업의 미래를 바꾸는가', '4차 산업혁명과 빅뱅 파괴의 시대', '2019 미래를 읽다' 등이 있다.

AI타임스 김동원 기자 goodtuna@aitimes.com

[관련기사] 약인가, 독인가?...인공지능을 바라보는 국제 기구의 두 가지 시각

[관련기사] EU 집행위 AI 정책 초안을 둘러싼 AI업계 논란, "혁신을 위협하는가, 아니면 허점투성이 법안인가"

키워드 관련기사
  • [AI북터뷰] 창업도, 취업도, 투자도 AI에 미래를 걸어보는 게 어떨까요?...“AI퍼스트” 저자 NH투자증권 서재영 상무 인터뷰
  • [AI북터뷰]서울대 고학수·윤성로 교수가 말하는 '설명가능한 AI의 모든 것'
  • [한상기 칼럼] 인식을 넘어서 이해하는 인공지능으로