인간 뇌 작동하는 이유는 '뇌 내부 큰 신경 활동 벡터 존재 '
AI 분야 격차 '개념적 돌파구' 찾아내야
더 많은 신경망, 더 많은 데이터 해결 과제

제프리 힌튼 교수(오른쪽)는 인공지능 4대 구루이자 딥러닝의 아버지로 불리고 있다. (사진=토론토대)
제프리 힌튼 교수(오른쪽)는 인공지능 4대 구루이자 딥러닝의 아버지로 불리고 있다. (사진=토론토대)

"30년 전엔 모두가 내 의견에 반대했습니다. 지금은 반대하는 사람을 찾기 힘드네요." 인공지능 4대 구루이자 딥러닝의 아버지로 불리는 제프리 힌튼 교수의 '묵직한 팩트(Fact)'다. 

3일 (현지 시간) MIT 테크놀로지 리뷰는 힌튼 교수와 인터뷰를  전했다. 

인터뷰에서 힌튼 교수는 딥러닝이 모든 것을 할 수 있을 것이라고 믿지만, 꽤 많은 개념적 돌파구가 필요하다'고 전했다.

힌튼 교수는 '돌파구를 찾는다면 딥러닝으로 인간 지능을 모두 구현할 수 있는가'라는 질문에 "인간의 이성과 같은 것을 구현하기 위해 신경활동의 큰 벡터를 얻는 것과 같은 돌파구를 찾는다면 가능하다"고 답했다.

현존하는 가장 큰 언어 모델인 오픈AI의 GPT-3는 1750억개 매개변수를 가지고 있지만, 여전히 인간의 뇌가 가진 100조개 매개 변수보다 1000배는 작은 수치임으로 이를 더 큰 규모로 발전시켜야 한다는 것.

힌튼 교수에 따르면 더 큰 규모란 신경망 층의 증가와 더 많은 데이터 확보를 뜻한다는 2017년 Ashish Vaswani가 트랜스포머를 도입한 논문(Attention is All You Need)을 예시로 들었다. 해당 논문은 CNN과 RNN에 의존하지 않으면서 번역에 효과적인 성능을 보여 주목을 받았다. 현재 대부분의 자연어처리 연구에 적용되고 있는 알고리즘이다.

그는 '상식(Common Sense)'이 인공지능 업계에서 다룰 중요한 과제 중 하나라고 동의했다. 이어 '모터 제어' 중요성도 강조하며 심층 신경망(DNN)이 이를 잘 수행하고 있다고 밝혔다.

또한 "대부분의 사람들이 GPT-3와 같은 언어 모델이 텍스트 생성 등을 위해 많은 작업을 거쳐야 한다는 것을 알지만, 그 과정을 확실하게 이해하지 못한다"며 "이 부분도 해결해야할 과제"라고 전했다. 

한편, 딥러닝은 2012년에 열린 제 3회 ILSVRC(ImageNet Large Scale Visual Recognition Competition) 대회에서 공식적으로 처음 사용됐다. ILSVRC는 컴퓨터 비전 모델을 구축해 15만장의 사진을 1000개 카테고리로 얼마나 정확하게 분류하는지 경쟁한다. 힌튼 교수는 전통적인 머신러닝 알고리즘을 적용한 다른 팀들보다 10% 이상의 정확도를 보이며 압도적으로 1위를 차지하며  딥러닝을 알렸다. 

GPT3 능가하는 자연어 모델 훈련 알고리즘 등장

인공지능 GPT-f가 생성한 수학 증명, 공식 수학커뮤니티에서 채택

키워드 관련기사
  • 'AI 대부' 요슈아 벤지오·얀 르쿤은 삼성 AI 포럼에서 무슨 말을 했나?
  • ‘AI 대부’ 얀 르쿤, GPT3를 쓰레기 취급하다니···왜?
  • "그래 죽어버려" 인공지능 GPT3가 '악플'을 달았다