2020년 도쿄 올림픽이 열리고 있는 지금 재미 있는 영상 하나가 사람들에게 웃음을 주었다. 스페인의 태권도 국가대표 선수 세레소 이글레시아스의 검은 띠에 ‘기차 하드, 꿈 큰’이라는 한글 문구가 눈에 띄었기 때문이다. 이걸 본 사람들은 그 문장이 ‘Train Hard, Dream Big’이라는 것을 쉽게 알았고 잘못 번역한 문구라는 것을 금방 눈치챘다.

이글레시아스의 검은 띠에 나타난 문구 [출처: 영상 캡처]
이글레시아스의 검은 띠에 나타난 문구 [출처: 영상 캡처]

사람들은 금방 알아채는데 왜 자동 번역기는 이런 오류를 냈을까? 이 번역은 마이크로소프트의 기술이었고 매우 잘못된 번역이라는 것을 찾아냈다. 구글에서는 ‘열심히 꿈을 크게 훈련하다’, 파파고에서는 ‘꿈을 크게 단련하다’로 나온다. 사실 두 번역 역시 아직 자연스럽지 않다. 그러나 사람은 이런 문장에 기차가 나오지 않는다는 것을 다 안다.

이미지를 인식하는 기술은 이제 사람의 능력과 견주어 큰 차이가 없다고 한다. 과연 그럴까? 강아지가 말을 끌고 마차에 고양이가 타고 있는 이미지를 강아지, 말, 마차, 고양이로 인식했다고 해서 그 이미지를 제대로 인식한 것이라고 볼 수 있을까?

아래 그림은 일본의 아티스트 타츠야 타나카(Tatsuya Tanaka)가 만든 미니어처 달력 시리즈에 나오는 그림이다. 이 이미지를 감자 칩, 다리미, 강아지, 여인, 가구로 인식하는 것은 이 이미지의 의미를 전혀 이해하지 못하는 것이다.

타츠야 타나카의 아이어닝 칩스 [출처: https://miniature-calendar.com/210523]
타츠야 타나카의 아이어닝 칩스 [출처: https://miniature-calendar.com/210523]

사실 지금의 이미지 인식, 자연어 처리, 음성 처리 등에 ‘이해’라는 단어는 붙이면 안 된다. 머신 러닝 또는 딥러닝 방식은 이런 데이터가 갖는 의미에 대한 이해를 하지 않으면서 수많은 학습 데이터를 통해서 인식률을 높여 왔기 때문이다.

게리 마커스와 어니스트 데이비스가 쓴 ‘2029 기계가 멈추는 날 (원제는 Rebooting AI)’에는 인공지능이 어처구니없이 인식하거나 번역하는 수많은 사례가 등장한다. 이들은 인지 모델을 갖지 못한 인공지능의 한계를 지적하고 있다. 이들은 단어의 의미를 이해하지 않은 자연어 처리 방식은 본질적으로 한계를 갖고 있음을 강조한다.

자율 주행차가 좁은 길에서 앞에 정차한 차량이 택시, 우편 배달차, 이사 차량인 것을 인식하면 그 대응이 모두 달라야 한다. 잠시 기다릴지 우회할 지를 결정하는 것은 앞에 있는 차를 단지 분류해서 되는 일이 아니라 그 차량이 갖는 사회적 의미 또는 기능과 특성을 알아야 한다.

과거 지식 기반 시스템은 세상의 각 객체가 갖는 의미를 다양한 방식으로 표현하고 그를 기반으로 추론하고자 했으나 수많은 모든 상황을 추론하거나 학습할 수 없었다. 지금 열광하는 딥러닝 방식은 아직 이런 의미 분석에 있어서 (꼭 상식 수준까지는 아니더라도) 매우 제한된 수준의 결과를 보이고 있다.

물론 앞에서 제시한 사례에 대해서 더 많은 데이터를 통해서 문제를 해결할 수 있을 것이라고 주장할 수는 있지만, 경험하지 않은 또 다른 상황에서는 우리가 쉽게 ‘이해’하는 것을 정확히 처리하는 것을 기대하기 어렵다.

딥러닝의 3대 거인이라고 부르는 요수아 벤지오, 제프리 힌턴, 얀 르쿤이 튜링 상 수상 기념 원고를 2021년 7월 CACM에 기고한 ‘인공지능을 위한 딥러닝’에서도 개체를 표현하는 뉴런 그룹을 통해 관계를 표현하는 방안이나 대니엘 카너만이 얘기한 시스템 2에 해당하는 추론과 계획 능력을 딥러닝으로 해결하는 것을 미래의 도전으로 얘기하고 있다.

작은 세계에서 여러 객체의 물리적 특성을 해석하고자 하는 연구인, 2018년 딥마인의 ToMnet이나 이번 2021년 ICML에서 IBM, MIT, 하버드의 연구진이 상식 추론을 위한 벤치마크 데이터셋 AGENT과 베이지언 역 계획과 코어 지식(BIPaCK) 모델 같은 접근으로 등장하고 있는 것은 이제 인식을 넘어서 이해를 하고 상식 추론에 도전하기 위한 노력으로 볼 수 있다.

2018년부터 시작한 미국 DARPA의 기계 상식 추론 연구 프로그램 같은 것이 이제 우리나라의 연구진에 의해서도 좀 더 도전적으로 연구가 추진되어야 할 것으로 생각하며 정부의 R&D도 이런 도전적인 문제 해결에 과감하게 투자할 때라고 생각한다.

로봇이 고양이를 요리하거나 주인 따라서 커피를 마시는 일은 피해야 할 것이다 (이는 UC 버클리 대학의 스튜어트 러셀 교수가 제시한 문제를 말한다).

한상기 대표는 서울대 컴퓨터공학과를 졸업하고, 카이스트에서 인공지능 분야 중 지식 표현에 관한 연구로 박사 학위를 취득했다. 삼성전자 전략기획실과 미디어 서비스 사업팀에서 인터넷사업을 담당한 후, 2003년 다음커뮤니케이션 전략대표와 일본 법인장을 역임했다. 두 번의 창업을 했으며, 카이스트 문화기술대학원 전문교수, 세종대학교 교수를 거쳐 2011년부터 테크프론티어 대표를 맡고 있다.

현재 기업 전략컨설팅, 정부 정책 과제 수행과 강연을 하며, 기술 분석가로 활동하고 있다. 여러 매체에 기술 관련 칼럼을 기고하고 있으며, 데이터 경제 포럼 위원, AI 데이터 총괄위원 등 다양한 정부 정책 관련 위원회 멤버로 활동하고 있다. 저서로는 '한상기의 소셜미디어 특강', '인공지능은 어떻게 산업의 미래를 바꾸는가', '4차 산업혁명과 빅뱅 파괴의 시대', '2019 미래를 읽다' 등이 있다.

한상기 테크프론티어 대표 stevehan@techfrontier.kr

[한상기 칼럼] ‘신뢰’를 인공지능의 핵심 경쟁력으로 만들자

 

키워드 관련기사
  • 웨이모, 새 시뮬레이션 시스템으로 재규어 차량도 검증테스트 진행
  • [스페셜리포트]③ 클라우드와 인공지능
  • 코로나19 확산 속 2020 도쿄 올림픽, 로봇 등 첨단 IT기술 선보인다