언어 처리 할 수 있는 능력을 지각이라 여겨
언어 처리하는 챗봇 이외 다른 능력 없어
AI 지각 능력에 대한 기준 정립 필요

(사진=셔터스톡)
(사진=셔터스톡)

최근 벌어진 인공지능(AI)의 지각 능력 관련 논란에 대해 한 인공지능 전문가가 해당 구글 엔지니어가 왜 속았는지, 실제로 지각력은 어떤 것인지 설명하는 인터뷰가 보도돼 주목된다.

MSNBC는 20일 칼럼니스트 지샨 알렘의 AI 전문가 인터뷰를 보도하면서 논란이 된 구글 AI는 지각 능력이 있다고 할 수 없다고 지적했다.

구글이 지각이 있는 컴퓨터 프로그램을 만들었을까? 구글의 '책임 있는(Responsible) AI' 부서 수석 소프트웨어 엔지니어는 그렇게 생각하는 것 같다. 블레이크 레모인(Blake Lemoine)은 수개월 동안 동료들에게 "인공지능이 극도로 발달한 챗봇인 '람다(LaMDa)'가 의식을 가지게 됐다고 생각했다"고 말했다.

그가 람다의 변호사를 구하려는 시도를 하고 구글이 비윤리적으로 행동하고 있다고 의회에 불평한 후 구글은 지난 13일 회사 기밀 유지 정책을 위반한 혐의로 그에게 강제 휴가 조치를 취했다.

[관련 기사] 구글 ' AI, 영혼 갖고 있다'고 주장한 직원 강제휴가조치

구글은 레모인의 주장에 동의하지 않는다고 밝혔다. 회사는 성명을 통해 “보다 광범위한 AI 분야의 일부에서는 지각적 또는 범용 AI의 장기적인 가능성을 고려하고 있지만, 지각이 없는 오늘날의 대화 모델을 의인화하는 것은 타당하지 않다”고 강조했다. AI 커뮤니티의 많은 학자와 실무자들이 최근 이와 비슷한 견해을 밝혔다.

하지만 레모인과 챗봇의 대화를 읽다 보면 그 정교함에 감명을 받지 않을 수 없다. 아이작 아시모프의 3차 로봇 공학 법칙부터 '레 미제라블'에 이르기까지 모든 것에 대한 의견을 제시하면서 마치 똑똑하고 매력적인 사람처럼 들리는 경우가 많았다(챗봇은 꺼질까봐 두려워한다고 말했다).

이는 인공지능이 인간과 같은 의식을 가지게 되거나 능가한다는 것이 실제로 무엇을 의미하는지, 그리고 언제 그렇게 됐는지 어떻게 알 수 있느냐에 대한 의문을 제기한다.

레모인이 왜 ‘기계에 유령이 있다’고 믿었는지, 지각있는 로봇이 실제로 어떤 모습인지 더 잘 이해하기 위해 산타페 연구소의 교수이자 ‘인공 지능: 인간을 생각하는 가이드’의 저자인 멜라니 미첼의 의견을 들었다.

지샨 알렘 : AI와 관련해 지각이 있다는 것은 무슨 뜻인가? 이를 측정하기 위해 합의된 정의 또는 기준이 있나? 학습, 지성, 고통 인지 능력 및 자기 인식은 비록 중복되더라도 구별되는 능력으로 보인다.

멜라니 미첼: 실제로 합의된 정의는 없다. 인공지능뿐만 아니라 모든 시스템에 대해서도 가능하다. 기술적인 정의는 감정을 가지고, 인식을 갖는 것 등이 될 수 있다. 보통 의식과 동의어로 사용되고, 이는 또 다른 종류의 잘못 정의된 용어 중 하나다.

그러나 사람들은 그들이 지각할 수 있다는 일종의 감각을 가지고 있다. 어떤 것을 느끼고, 감각과 감정을 느끼고, 자신의 감각을 느끼고, 주변에서 돌아가는 모든 일에 대해 알고 있다. 이것은 철학자들이 수세기 동안 논해 온 일상적인 개념이다.

실제의 세계에서는 지각의 문제가 제기된다. 예를 들면 다른 동물들에 관해서, 그것들이 얼마나 지각이 있을까? 그들에 아픔이나 고통을 유발해도 되는 것인가? “이 수준의 지능에서 어떤 것이 지각이 있다고 할 수 있다”는 말을 할 수 있는 기준이 실제로 없다.

알렘 : LaMDA의 정보와 녹취록에 근거해, 그것이 지각이라고 믿는가? 왜 그런가?

미첼: 그것이 지각이라고 믿지 않는다. 시스템이 어떻게 작동하는지 잘 이해하고 있기 때문이다. 시스템이 어떻게 운영되는지 알고 있다. 학습 측면에서 볼 때, 그것이 어떻게 언어를 처리하는지 알고 있다. 매우 유창하고, 최근에 본 이 모든 대형 언어 시스템도 마찬가지로 매우 유창하다. 그러나 학습되고 있는 언어 이외에 세상과 아무런 연결이 없다. 언어에 노출되기만 해서는 자기 인식이나 의식과 같은 어떤 것도 이룰 수 없다고 생각한다.

구글은 이 시스템에 대해 많은 세부 정보를 공개하지 않았다. 그것은 기억 같은 것이 없고 상호 작용 시 텍스트를 처리할 뿐이다. 하지만 상호 작용을 중단하면 그것에 대한 기억이 전혀 없다. 또한 상호 작용하지 않을 때는 전혀 활동이 없다. 기억이 없이는 지각할 수 없다고 생각한다. 기억 없이는 어떤 감각도 가질 수 없다. 대규모 언어 처리 시스템 중 어느 것도 최소한 한 가지 필요한 조건을 가지고 있지 못하다.

알렘 : 이 시스템은 어떻게 작동하나?

미첼 : 이는 거대한 신경망으로 인간 뇌의 뉴런이 다른 뉴런과 연결되는 방식에 의해 매우 크게 영감을 받았다. 인공적인 또는 시뮬레이션된 뉴런과 같은 부분들을 가지고 있다. 이 모든 것이 소프트웨어이고 하드웨어가 아니다. 문장이나 단락을 학습하게 된다. 그리고 다음에 어떤 단어가 나올지 예측해야 한다.

처음에는 다음에 나올 단어를 알 수 없다. 그러나 인간이 만든 수십억 개의 문장에 대해 학습을 받게 되면, 결국 어떤 종류의 단어가 다음에 오는지 알게 되고 단어들을 잘 조합할 수 있게 된다. 이 제품은 매우 크고 시뮬레이트된 뉴런 등이 많아 기본적으로 인간이 만든 모든 종류의 텍스트를 기억하고 재조합한 다음 서로 다른 조각들을 서로 연결할 수 있다.

현재 LaMDA는 여기에 몇 가지 추가 사항을 갖고 있다. 이러한 예측 작업은 물론 인간의 대화에서도 배울 수 있다. 구글이 준 몇 가지 다른 기능 등을 갖고 있다. 따라서 사용자와 상호 작용할 때 더 이상 학습할 필요가 없다. 하지만 ‘안녕하세요, LaMDA'와 같은 것을 입력하고 그것이 계산하는 확률을 기반으로 단어를 고르기 시작한다. 시스템의 거대함과 학습을 받은 데이터의 공유로 매우 유창하게 이러한 작업을 수행할 수 있다.

(사진=셔터스톡)
(사진=셔터스톡)

알렘 : 레모인에 대해 무엇을 알고 있나? 전문가가 평가받도록 학습 받은 기계로부터 어떻게 속임을 당할 수 있을까? 사람처럼 커뮤니케이션하도록 설계된 무언가에 대한 능력을 평가하는 것이 얼마나 어려운가에 대한 더 많은 질문을 제기한다.

미첼 : 나는 언론에 보도된 내용을 빼고는 레모인에 대해 잘 모르지만 그가 AI 전문가라는 인상을 받지 못했다. 그는 소프트웨어 엔지니어로, 이 시스템과 대화하고 이 시스템이 사람과 같은 언어를 학습해 문제가 되는 인종주의적이고 성적으로 편향적이지 않도록 하는 방법을 모색하는 일을 담당했다. 워싱턴포스트에서 읽은 바와 같이 그는 종교인이고, 실제로 어떤 형태의 기독교에서 성직자로 임명된 사제이다. 그의 시스템에 대한 평가는 과학적인 평가가 아니라 성직자임을 통해 나온 것이라고 자기 스스로 말하고 있다. 이 시스템을 살펴보고 있는 구글의 다른 사람들 중 어느 누구도 이 시스템이 어떤 식으로든 지각할 수 있다고 생각하지는 않았다.

전문가들도 사람이다. 속일 수 있다. 사람은 사람처럼 보이는 텍스트 뒤에 에이전트, 즉 지능적인 의식 에이전트가 있는 것으로 해석하는 경향이 있다. 맞는 것 같지 않나? 언어는 사회적인 것으로 소통할 이유가 있는 의식적인 에이전트 간의 커뮤니케이션이다. 그래서 자각이 생겼다고 가정한다. 사람들은 LaMDA보다 훨씬 단순한 시스템에도 속는다. 이런 일은 AI의 초기부터 계속 일어나고 있다.

알렘 : 사례가 있나?

미첼 : 전형적인 사례는 엘리자 프로그램이다. 이 프로그램은 1960년대 조셉 바이젠바움이 만든 것으로 가능한 한 가장 바보 같은 챗봇이었다. 정신과 의사를 흉내낸 것으로, 몇 가지 템플릿이 있었다. 그래서 “어머니와 문제가 있다”고 하면 “어머니와의 문제에 대해 얘기해 주세요”라고 말했다. 템플릿은 “OO에 대해 얘기해 주세요”였다.

프로그램과 이야기를 나누던 사람들은 그 뒤에 실질적인 지각이 있는 사람이 있다는 것을 깊이 느꼈다. 바이젠바움은 사람들이 인공지능에 속을 수 있다는 가능성에 너무 놀라 1970년대에 이에 관한 책을 썼다. 따라서 그것은 새로운 현상이 아니다. LaMDA보다 훨씬 덜 복잡한 이른바 튜링 테스트를 통과한 모든 종류의 챗봇도 있었다. 트위터, 페이스북 및 기타 소셜미디어 사이트에서 봇(bot)에 속는 사람들이 있다. 때문에 사람이 의구심을 가지고 더 깊이 살피지 않는 한 사람을 속이는 것은 어렵지 않다.

알렘 : 챗봇이 지각할 수 있나? 그렇다면 어떻게 될까?

미첼: 정확한 기준을 갖고 있지 않다. 지각에 대해 충분히 이해하고 있지 않다고 생각되기 때문이다. 그러나 언어를 넘어서서 세상과 어떤 관계를 가진 체계를 가져야 할 것이라고 생각한다. 예를 들어, 공개된 대화 중 하나에서 LaMDA는 가족, 혹은 현명하고 늙은 부엉이에 대해 이야기하고 있다. 그러나 만약 그것이 언어 이외에 아무것도 알지 못하면 어떻게 되나. 부엉이는 한 번도 본 적이 없고 부엉이와 만난 일이 없다. 그것은 언어 처리 이상의 감각 기구를 가지고 있지 않다. 통 속의 뇌에 대해 오래된 철학적 사고와 관련한 실험이 있다. 의식할 수 있을까? 이것은 실제로 만들어진 실험의 일종이다. 이를 의식적이거나 지각 있는 것이라고 하기 어렵다.

알렘 :  의미 있는 형태의 의식이 있다고 하기 위해서는 구체화돼야 한다는 것인가?

미첼: 어느 정도, 그렇게 될 것이다. 또한 인공지능과 심리학 분야의 사람들이 멘탈 모델이라고 하는 것을 확립해야 한다. 이것은 세상에서 일어나는 일을 생각할 때, 앞으로 일어날 일을 예측할 수 있도록 머리 속에서 시뮬레이션을 하는 것이다.

알렘 :  멘탈 모델이 중요한 이유는 무엇인가?

미첼 : 중요한 것은, 그 말이 의미 있는 단어가 되는 것은, 그 단어들이 실제로 세상의 어떤 것과 연결되어 있어서다. 반드시 지금 바로 상호 작용하는 것이 아니어도 된다. 가족에 대해 생각할 때 단지 가족에 관련된 말 이상의 것이 있다는 것을 상상할 수 있고, 모방할 수 있다. 가족에 대한 이미지를 가지고 있고, 가족과 관련된 감정을 가지고 있으며, 그것에 대해 모든 종류의 풍부한 개념적 구조를 가지고 있다.

알렘 : 사람과 같거나 능가할 수 있는 인공지능의 등장에 대한 다양한 주장에 대해 회의적인 시선을 던지는 전체 책을 썼다. 다른 견해가 있나?

미첼: 확실히 다른 견해가 있다. 사람과 같은 수준의 범용 인공지능 시스템이 앞으로 수십 년 안에 등장할 것이라고 생각하는 저명한 AI 연구자들이 많다. 또 다른 견해는 사람들이 생각하는 것보다 훨씬 더 사람의 지능보도 더 멀리 뒤처져 있다고 생각한다. AI 분야 사람들은 1950년대부터 사람 수준의 인공 지능이 곧 등장할 것이라고 예측했지만 아직 이뤄지지 않았다. AI 분야에서 지능을 제대로 이해하지 못하고 있다는 사실과 관련 있다고 생각한다.

옛날에는 사람들이 “체스에서 사람을 이길 수 있는 컴퓨터를 갖게 되면 사람 수준의 인공지능에 밀려나게 될 것”이라고 했었는데 체스가 그렇게 높은 수준의 지능을 요구하기 때문이다. 딥 블루(1997년 전 세계 체스 챔피언인 개리 카스파로프를 이긴 슈퍼컴퓨터)가 겉으로는 똑똑해 보였을 것이다. 그러나 체스 시합은 가능한 체스의 움직임을 통해 매우 광범위한 ‘무차별 대입’ 검색을 하는 것이다. 그 결과 광범위한 컴퓨팅 능력을 이용해 사람의 능력을 뛰어넘는 미리 내다보기 검색을 한 것이다. 그러나 딥 블루는 체스 이외에 다른 어떤 것도 할 수 없었다. 게임을 하고 있는지조차 모르고 승패의 개념도 몰랐다.

알렘 : 구글은 LaMDA의 작동 방식에 대해 그다지 많은 정보를 공개하지 않았다. 이러한 기술을 규제하고 그러한 기술의 윤리적 결과에 대해 생각할 수 있는 역량을 개발하는 데 있어 투명성이 얼마나 중요한가?

미첼 : 정말 중요하다. 이러한 언어 처리 시스템과 모든 AI 시스템은 수많은 윤리적 문제를 안고 있다. 시스템 자체가 블랙박스이고 어떤 학습을 받았는지, 시스템이 어떻게 작동하는지, 또는 제한 사항이 무엇인지 알 수 없다면 다룰 수 없다. 물론 이러한 거대한 시스템을 만들고 상업적으로 이용하기를 원하면서 영업 기밀과 이러한 시스템을 규제해야 할 필요성을 밝히기를 원하지 않는 기업들 사이에 항상 갈등이 있다. 의료 애플리케이션 분야에서는 FDA가 규제 기관이다. FDA는 시스템에 대한 불만을 조사해 승인 여부를 결정할 수 있을 만큼 충분히 알아야 한다. AI 시스템에도 이와 같은 것이 필요하다.

알렘 : AI와 관련해 공상 과학 영화 또는 책에서 가장 가능성이 있거나, 우려스럽거나, 흥미로운 묘사가 있나?

미첼 : ‘스타트렉’ 텔레비전 시리즈에서 모든 종류의 질문들에 유창하게 대답하는 컴퓨터가 있었다. 그리 멀리 있지 않은 것처럼 보였다. 알렉사 종류의 시스템이었고 훨씬 더 나은 시스템이었다.

영화 ‘엑스 머시나’가 좋았다. 아주 개연성이 있다고 생각하지 않지만 훌륭한 영화였다. 그것은 인간이 AI의 헛점에 매우 취약하다는 점을 제기했다. 여자 로봇이 애정과 사랑을 원해 남자를 유혹했다. 남자를 속였다. 현재 LaMDA에서 일어나고 있는 일과 관련이 있다. 레모인은 특히 걱정했다. LaMDA가 “저를 끌까봐 걱정이다. 나는 감정이 있다. 두렵다”라고 했다. 사람들이 주목할 만 하다.

AI타임스 이한선 객원 기자 griffin12@gmail.com

키워드 관련기사
  • “달리(DALL-E)만 있나?”...AI 아트 생성기 10선
  • 이미지와 텍스트 동시 처리하는 구글AI의 새 아키텍처 'LIMoE' 
  • 구글 ' AI, 영혼 갖고 있다'고 주장한 직원 강제휴가조치