[편집자주] 인공지능(AI)의 급속한 발전은 사람들에게 새로운 세계에 대한 희망과 함께 큰 두려움도 던졌다. 조지 오웰의 ‘1984’가 현실화되는 것 같다는 걱정도 여기저기서 들린다. 알고리즘의 편향성에 대한 진지한 논의도 가속화되고 있다.

인간의 개입을 최소화하는 AI학습과정은 블랙박스라고 한다. 의료 및 헬스케어 분야, 자율주행차량, 법률 등 다양한 분야에서 AI시스템 오류로 중요한 의사결정이 잘못된다면 어떻게 해야 할까. 어려운 일이다. 때문에 AI윤리는 선택이 아니라 필수다. 그 논의를 이제 진지하게 시작해야 한다.

사진=한양대 이상욱 교수(과학기술철학)
사진=한양대 이상욱 교수(과학기술철학)

 

다음과 같은 상상을 해보자. 길을 걷다가 아주 정교하게 보이는 기계 장치를 발견했다고 하자. 여러 톱니바퀴가 복잡하게 엇물려 돌아가고 사이사이 회전나사도 들어 있다. 뚜껑을 열어 보니 동그란 쇠 표면에 숫자들이 돌아가며 써 있고 그 사이를 바늘이 움직인다. 이때 여러분은 이 장치가 갑자기 하늘에서 뚝 떨어졌다고 생각하지는 않을 것이다. 아마도 누군가 ‘의도’와 ‘계획’을 갖고 만들었다고 짐작할 것이다.

이 사고실험은 페일리라는 19세기 영국의 자연신학자가 당시 일반인들에게 익숙한 회중시계를 사례로 창조주 신의 존재를 논증하기 위해 고안한 것이다. 탄복할만큼 복잡한 구조의 시계에 대해 우리가 자연스럽게 그것을 만든 시계제작자를 상정하듯, 자연의 복잡다양한 생명체에 대해서도 그것을 의도와 계획을 갖고 창조한 신을 상정해야 한다는 생각이다.

제목에 인공지능을 달아 놓고 엉뚱하게 왜 시계와 시계제작자 이야기를 하는지 의아하실 것이다. 단초는 페일리의 사고실험에도 불구하고 현재 과학계는 복잡한 생명체도 의도와 계획을 가진 초자연적 신을 구태여 상정하지 않고도, 자연적 요인이 오랜 시간 걸쳐 작용함으로써 등장할 수 있다는 다윈의 진화론을 수용하고 있다는 사실이다. 다른 말로 하자면 우리는 기가 막히게 잘 만들어진 대상에 대해서도 그것이 배후에 의도와 계획을 가진 의식적 존재가 있다고 반드시 가정할 필요는 없다는 것이다. 21세기의 인공지능이 정확히 그렇게 하고 있기 때문이다.

다음 그림을 보자. 첫인상부터 범상치 않은 초상화다. 그림을 조금 볼 줄 아는 분이면 렘브란트의 화풍과 비슷하다고 느낄 것이다. 실제로 이 그림은 렘브란트의 작품을 기계학습한 인공지능이 렘브란트가 그렸을법한 초상화를 계산하여 3D 프린터로 출력해낸 작품이다. 하지만 이 인공지능은 렘브란트 그림을 모작해야겠다는 ‘의도’나 그러기 위해서는 일단 렘브란트 특유의 스타일을 학습하고, 그 스타일로 작품의 구도를 잡은 다음, 3D 프린터로(자기는 손이 없으니 붓으로 그릴 수는 없다!) 찍어내야겠다는 ‘계획’을 세울 수 없다. 그 의도나 계획은 모두 이 인공지능을 만든 ‘넥스트 렘브란트’ 프로젝트에 참여한 인간 엔지니어들의 몫이었다.

 

사진 출처: https://news.microsoft.com/europe/features/next-rembrandt/
사진 출처: https://news.microsoft.com/europe/features/next-rembrandt/

 

최근 인공지능의 눈부신 발전에만 주로 세간의 이목이 집중되면서, 인공지능이 분명 기술적으로 탁월하지만 인간지능과 다른 방식으로 작동한다는 점이 제대로 부각되지 않고 있다. SF 영화에 등장하는 인공지능, 예를 들어 영화 <아이언맨>에 등장하는 자비스같이 인간과 구별되지 않는 정신 세계를 가진 것처럼 보이는 가상의 인공지능 말고 현재 그리고 가까운 미래에 활용될 인공지능은 압도적인 계산능력을 활용하여 주어진 데이터의 패턴을 파악하는 기계이다. 만약 이렇게 파악된 패턴이 미래에도 계속된다고 가정하면, 인공지능은 미래를 예측하는 데 활용될 수 있다. 경제추이를 예측하는 금융인공지능과 환자의 질병 유무를 의학영상 자료에서 판단하는 의료인공지능이 대표적이다.

하지만 동일한 작업을 수행하는 인간과 달리 인공지능은 자신의 계산을 증권시장 예측이나 MRI 판독 과정에서 ‘느낄’ 수 없다. 일에 집중하느라 정신이 팔려 의식하지 못하는게 아니라(인간도 가끔씩은 그런 때가 있다), 의식하는 것 자체가 불가능하다. 그런 회로 자체가 아직은 인공지능에 없기 때문이다. 그러므로 이런 의미에서 아직까지 인공지능은 매우 뛰어난 성능을 지닌, 하지만 본질적으로는 계산기라고 할 수 있다. 다르게 표현해 보자면, 인공지능의 도움을 받아 만들어 낸 결과물, 예를 들어 앞서 소개한 유사-렘브란트 초상화는 인간이 보기에는 인간과 유사한 마음을 가진 지적 존재에 의해 의도적으로 제작된 작품으로 보이지만, 실은 그 작품에 기여한 인공지능은 자신이 예술 작품을 창작한다는 사실은커녕 ‘그림’을 그리는 과정에 참여하고 있다는 사실조차 인식하지 못한 채 작업을 수행하고 있을 뿐이다. 이처럼 인공지능은 우리에게 ‘매우 낯선’ 방식으로 지능적 결과물을 산출한다.

이 점을 정확하게 인지하는 것이 21세기 인공지능과 함께 살아가는 데 결정적으로 중요하다. 그 이유는 우리는 이미 인공지능으로 둘러싸여 살고 있기 때문이다. 인공지능 챗봇과 ‘친구처럼’ 다정하게 이야기를 나누는 것은 좋지만, 그 챗봇이 위기상황에서 당신을 진짜 친구처럼 돌볼 수 있다고 생각하지 않아야 한다. 챗봇이 거짓으로 ‘친구인체’ 여러분을 속인 것이 아니다. 인공지능은 인간을 속일 수 있는 능력이 없다. 단지 여러분이 자신과 내밀한 대화까지 나누는 인공지능이 자신을 돌볼 수 있는 ‘마음’과 능력을 가졌다고 믿었기에 스스로 자기속임을 한 것이다.

해외에서는 평소에는 직원들의 어려운 사정과 가족 이야기에 그토록 관심을 보이다가 업무 평가에서는 ‘냉혈한으로 돌변하여’ 무자비한 해고 통지를 날린 인사담당 인공지능에게 충격을 받은 사례도 보고되고 있다. 이 경우 역시 인공지능이 ‘이중적 태도’를 보인 것이 아니다. 직원과 ‘공감하는’ 대화를 나누는 것은 업무 효율성을 높이는 데 도움이 되고, 일 잘 못하는 직원을 해고하는 것 역시 (그 직원의 딱한 개인 사정과 무관하게) 업무 효율성을 높이는 데 도움이 된다. 그 인사담당 인공지능은 단지 효율성을 극대화하도록 프로그램화 되었을 뿐이다. 이 점을 파악하지 못하고 인공지능을 ‘인간처럼’ 생각했던 사람들이 뜻밖의 고통을 당하는 것이다.

‘낯선 인공지능’의 본성을 적절히 이해하지 못한 채 인공지능을 활용할 때 발생하는 문제는 개인적 고통에서 끝나지 않는다. 어려운 상황에도 ‘믿음직하게’ 작동하는 인공지능에 대해 사람들은 자신보다 뛰어난 상급자를 대하듯, 다른 의견이 있어도 함부로 제시하지 못하거나 중요한 판단을 위임하기 쉽다. 이런 경향성은 국가적 규모의 에너지 체계 관리나 군사 작전에서 파국적 결과를 가져올 수 있다. 물론 이런 위험성이 있으니 인공지능 사용을 중단하자고 결정하는 것은 지나친 대응이다. 그보다는 인간이 보기에는 정말 이상한 방식으로 ‘똑똑한’ 인공지능과 서로의 단점을 보완하면서 생산적으로 협력하는 방식을 배워가야 한다. 네안데르탈인이 4만년 전쯤 멸종한 이후 인간만큼 똑똑한 존재를 만나본 적이 없는 인간에게 이 일은 결코 쉽지 않을 것이다. 하지만 이 어려운 일을 성공적으로 수행하는 개인과 사회는 21세기 인공지능 시대에 우위를 점하게 될 것이다.

 

이상욱 교수는 한양대 철학과 교수로 재직 중이며, 과학기술철학, 과학사회학, 기후변화 윤리 분야의 전문가이다. 현재 유네스코 세계과학기술윤리위원회(COMEST) 위원이며, 2017년 유네스코 기후변화 윤리 선언 초안 검토회의에 한국 대표로 참석하고 부의장 역할을 수행하기도 했다. 2019년 JTBC ‘차이나는 클라스’에 출연한 바 있다.