인간의 뇌 구조를 닮아가는 딥러닝도 계속 진화하고 있다. 알파고가 이세돌과의 바둑 대결을 통해 자신의 존재를 세계에 알렸을 때 동시에 유명해진 알고리즘 기법이 강화학습이었다. 알파고를 개발한 딥마인드는 기존의 강화학습(reinforcement learning)의 한계를 보완해 ‘사람이 개입하지 않고 바둑 AI 간 대국을 통해 스스로 데이터를 만들고 높은 점수를 획득할 수 있는 행동 패턴을 스스로 학습하는’ 심층강화학습 방법론을 적용했다. 다양하고 복잡한 현실세계에 적용가능성을 높인 것으로 평가받았다.

이 알고리즘은 자율주행 차 기술개발에 크게 기여할 것으로 예상되고 있다. 실제 주행 환경을 완벽히 재현한다는 게 불가능하기 때문에 다양한 주행 데이터로 수백만 번 주행 상황을 재현해 효과적인 학습 모델을 만들어 낼 수 있다는 것이다. 2018년에는 딥 모션 연구팀은 사람과 같은 동작을 하는 아바타 생성 기술을 개발했고, NVIDIA는 다양한 산업에서 활용 가능한 자율 로봇 플랫폼을 내놓았다. 모두 심층강화학습에 기댄 결과물이었다.

또, 최근에 와서 AI스타트업 사이에서 활발하게 논의되고 있는 전이학습(transfer learning)은 학습데이터가 부족한 경우에 특정한 분야에서 만든 학습 모델을 유사한 분야에 재사용해 효과적인 학습모델을 만들어내는 알고리즘 기법이다. 고양이에 대한 데이터가 많은데 개에 대한 데이터가 적을 경우 개를 인식하는 모델을 만드는데 고양이를 인식하도록 학습한 모델을 사용한다는 것이다.

이 모델의 뛰어난 효과는 몇 가지 대표적인 사례를 통해 이미 확인되었다. 2016년 Camelyon16 대회에서 한 교수팀이 유방암 슬라이드 판독에서 구글의 인셉션 모델을 전이학습시켜 에러율이 7.5%에 머물러 우승했다.

스탠포드대 연구진은 인공위성 촬영 데이터로 아프리카 국가 빈곤지도를 만드는데 전이학습을 활용했다. 현실적으로 빈곤 관련 데이터가 절대적으로 부족했기 때문이다. 밤에 확인할 수 있는 조명의 정도를 빈곤 지표로 활용하는 것인데 이는 인공위성 데이터로 풍부하게 확보가 가능했다. 그렇지만 야간 조명 데이터로는 빈곤의 세부사항을 알기는 어렵기 때문에 고해상도 주간 데이터를 통해 추가로 확인했다. 이러한 두 가지 형태의 데이터를 결합헤 빈곤지역 예측 알고리즘을 개발하는데 성공했다.

전이학습은 이전의 경험과 학습을 바탕으로 새로운 지식을 받아들이는 인간의 일반적인 학습 방법을 채택해 새로운 AI를 만들 수 있다는 점에서 큰 의미가 있다. 특히 의료 영상 기술의 진화에 전이학습이 중요한 역할을 수행할 것으로 기대된다.

 

딥러닝의 진화에 대해서 모두 낙관적인 건 아니다. 세계적인 뇌과학자 뉴욕대 게리 마커스(Gary Marcus)교수는 딥마인드의 심층강화학습이 과대평가되었다고 비판해왔다. 심층강화학습을 통해 성과를 내는 데에 너무 많은 비용이 든다는 것이다. 심층 강화 학습에는 엄청난 양의 데이터(예: 수백만 개의 바둑 게임)가 필요하다.

마커스 교수는 알파고의 훈련 시간에만 3,500만 달러가 들었다며, 12,760명의 뇌가 3일 동안 잠을 자지 않고 계속 소비한 에너지와 비슷하다고 말한다. 게다가 이 기술은 통제된 환경에서 신뢰할 수 있고 유연성이 약하다고 본다. 구글이 딥마인드에 지금까지 20억 달러를 투자했지만, 초점을 맞춘 게임 이외에 대규모 상업적인 응용 분야를 찾지 못하고 있다고 비판한다.

전이학습에 대해서도 부정적인 입장을 피력한다. 유명한 자신의 논문 “딥러닝: 비판적 평가(Deep learning: a critical appraisal)”에서 딥러닝 방식의 사람의 추상적인 능력을 따라잡는 방식이 아니라고 평가한다.

마커스는 이 논문에서 독일어에 10살에서 21살 사이의 여자 형제를 가리키는 schmister 라는 단어를 예시로 든다. 사람은 이에 대해 한 가지 예시만을 배우고도 나에게 schmister가 있는지 혹은 지인 중에 schmister 가 있는 사람이 있는지 손쉽게 추론할 수 있다. 사람은 추상화 개념을 일반화하고, 일반화된 방법으로 문제에 대처한다.

그러나 딥러닝으로 어떤 문제를 풀기 위해서는 가능한 종류의 예시를 모두 학습시켜 줘야 한다는 것이다. 딥러닝은 사람의 언어 계층 구조와 개방형 질문(open-ended problem)에도 취약한 한계를 지적한다. 한마디로, 딥러닝이 ‘딥’하지 않고 주어진 문제에 대해 얇은 수준의 이해에 머물 수밖에 없다는 것이다.

게리 마커스의 견해가 옳은 지 아닌지는 현재진행형이라고 봐야 한다. 2018년 CNN(합성곱 신경망) 개념을 창안한 얀 르쿤 교수와 마커스 교수가 인공 지능과 딥러닝의 미래를 두고 트위터에서 설전을 벌였던 것처럼, 앞으로도 다양한 논쟁이 계속될 것으로 보인다. 이 논쟁 속에서 딥러닝 기술과 실용화 방법론도 계속 진화할 것이다.

이 과정에서 인공지능을 만들기 위한 별도의 인공지능을 사용해, 모델링의 전체 또는 일부를 자동화하는 기술인 AutoML(Automated Machine Learning)도 중요한 자리를 차지할 것으로 보인다. 따라가기 어렵지만, 미래를 예측하며, 흥미로운 인간 관찰자가 되어보는 것도 재미있을 것 같다.

키워드 관련기사
  • "AI 국제표준 선도할 역량 키우자"...조영임 가천대 교수
  • AI로 토익 수험자 얼굴 확인한다
  • 인공지능이 타협도 한다고?...딥마인드, 승부 넘어 윈윈하는 AI 교육