정병일 AI타임스 전문위원
정병일 AI타임스 전문위원

인공지능(AI) 기술이 비약적으로 발전하면서 AI가 가져올 위험성도 커지고 있다는 경고가 잇따르고 있다.

최근에는 'AI 대부'로 불리는 제프리 힌튼 토론토대 교수도 우려의 목소리를 강하게 내놓았다.

AI의 위험성을 알리기 위해 구글의 수석연구원직을 사임했을 정도다.

이후 여러 언론 매체와 인터뷰에서 "AI가 핵보다 위험하다"고 일갈했다.

AI의 위험성을 강조하는 그의 얼굴은 매우 어두워 보였다.    

지난 50년 동안 인공신경망 개념을 개척하고 '역전파'라는 기술을 제안하는 등 심층학습을 선도해온 75세의 노학자가 자신이 해온 일을 후회하는 배경은 뭘까.

인간이 통제할 수 없는 범용 인공지능(AGI, Artificial General Intelligence)이 곧 도래할 수 있다는 인식 때문으로 보인다. AGI는 인간을 넘어서는 지능을 가진 자율적 인공지능을 말한다. 

인간의 지도 없이 스스로 학습하며 발전하고 필요한 기능이나 기계를 창조할 수 있기 때문에 개념상 인류가 최후에 발명할 기계가 된다. 초지능, 일반인공지능이라는 용어도 같은 의미로 쓰인다.

힌튼 교수는 BBC 인터뷰에서 "얼마 전까지만 해도 AGI가 상용화되기 까지 20년에서 50년은 걸릴 것으로 생각했지만 지금은 20년 이하로 생각하고 있다"고 말했다. 트위터에는 5~20년이라고 썼다.

AGI가 인류를 멸망시키려 할 가능성이 있느냐는 질문에 그는 "상상할 수 없는 일이 아니다"며 "‘터미네이터’ 같은 킬러 로봇이 현실화될 수 있다"고 답했다.

AGI의 출현 가능성과 위험성은 여러 학자와 전문가가 언급했다. 고 스티븐 호킹 박사는 2014년에 "인간을 뛰어넘는 지능을 가진 AI는 스스로를 개량하고 도약할 수 있는 반면 인간은 생물학적 진화 속도가 늦어 경쟁할 수 없게 되고 결국 대체되고 말 것"이라고 예언하기도 했다.

일론 머스크 테슬라 CEO는 "AGI에 대항하기 위해 인간이 사이보그가 돼야 한다"는 주장을 편다. 또 대표적인 AGI 경계론자인 엘리저 유드코스키는 최근 타임지 기고문에 '임박한 AGI의 실존적 위협’을 차단하기 위해 "데이터센터를 폭격할 수 있어야 한다"고 썼다.

이들의 주장에는 모두 AGI에 대한 공포가 깔려있다. 본질은 통제불가능성에 대한 두려움이다. 인간을 넘어서는 지능과 심지어 의식도 가지게 된 기계가 인간의 가치에 맞게 ‘정렬(alignment)’ 하지 않을 수 있으며 이는 인류 멸망의 대재앙으로 이어질 것이라는 디스토피아적 전망이기도 하다.

그러나 AGI는 불가능하다는 주장도 만만치 않다. 불가능하니 걱정할 필요도 없다는 입장이다.

AI업계의 ‘4대 천왕’ 중 한 명으로 불리는 앤드류 응 스탠퍼드대 교수는 "킬러로봇을 걱정하는 것은 화성의 인구과밀을 걱정하는 것과 같다"고 비유한다. 그만큼 실현되기 어렵기 때문에 그런 걱정에 에너지를 쓸 필요가 없다는 취지다. 

천재들에게 주는 상이라는 맥아더 펠로우상을 받은 최예진 워싱턴대 컴퓨터 과학과 교수도 AGI에 부정적이다. 그는 '인간이 가진 상식을 AI가 도저히 습득할 수 없기 때문'이라는 이유를 든다.

그는 "말의 눈이 두 개라는 사실은 인간에게는 너무 당연한 상식이어서 말할 필요가 없다. 하지만 AI는 일일이 말해줘야 알 수 있다"면서 기계가 상식을 학습하기 어렵다는 점을 설명한다.

특히 인간의 상식은 보편적 원칙이 없고 예외가 끊임없이 만들어지기 때문에 AI에게는 ‘암흑물질(dark matter)’과 같다는 비유도 했다. 암흑물질은 현대물리학에서 사용하는 개념으로, 우주에서 우리에게 알려진 부분 5%를 제외한 나머지 95%를 지칭한다. 

인간인 우리로서는 저 먼 우주가 존재한다는 사실은 알지만 실제 모습은 알지 못하며 알 수도 없는 영역이 대부분이라는 개념이다. 

AGI가 이론적으로 개발하기 어렵다는 주장 외에 현실적으로도 어렵다는 지적도 있다. AI는 훈련 데이터만큼만 우수한데 아직 데이터가 충분하지 않은 분야가 적지 않다는 현실론이다. 

예를 들면 화학 분야가 그렇다. 네이처는 최근 유용한 새로운 물질을 찾고 합성하는 방식에서 AI는 혁명을 약속하지만 실제로는 일어나지 않고 있다고 보도했다. AI 시스템에 공급할 수 있는 데이터가 부족하기 때문이라는 지적이다.

AGI 가능성에 대한 논쟁은 결론이 나지 않고 있지만 양측 전문가들이 모두 동의하는 지점은 있다. 위험한 기술에 대한 통제의 필요성이다. 핵이나 생화학무기처럼 인류에게 치명적 위험을 초래할 수 있는 기술은 나쁜 의도를 가진 사람(bad actor)이 오남용할 위험이 있기 때문에 지금도 국제 사회의 통제 대상이다.

마찬가지로 새로운 기술인 AI 역시 위험성은 충분히 인정되기 때문에 새로운 규칙을 정해 통제해야 한다는데는 컨센서스가 이뤄져 있다. 이미 유럽에서 위험도에 따른 AI 규제를 담은 법안이 만들어져 입법 절차가 진행되고 있다. 

샘 앨트만 오픈AI CEO도 최근 미 상원 청문회에 출석해 AI에 대한 통제 필요성을 강조하면서 독립적인 감독 기구의 설치를 제안하기도 했다. 이런 논의가 활성화되는데 따라  시간은 걸리겠지만 결국 AI 규제를 통한 통제력 확보는 가능할 것으로 보인다. 

제프리 힌튼이나 샘 알트만 같은 AI 연구개발의 최일선에 있는 인사들은 AI의 위험성에 대한 걱정으로 밤잠을 설칠 때가 많다고 고백한다. 그 고백에는 진정성이 있다. 우리 모두 평화롭게 잠들 수 있도록 문제가 지혜롭게 풀려 나가길 바란다. 

정병일 AI타임스 전문위원 jbi@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지