현 딥마인드 연구원, 과학계 난제 해결할 대칭구조 반영 딥러닝 주목
자율주행 관건 해석가능한 AI, 데이터 자동 분류·개선 어텐션 메커니즘 연구
확률론적 딥러닝·대칭구조 반영 딥러닝 연구는 영국 포함 유럽이 강세
AI 연구에 코딩 경험과 능력이 매우 중요...초등생때 코딩 해볼 것 권유

[편집자 주] 4차산업혁명을 선도하는 국가로 발돋움하기 위해서는 인공지능(AI) 기술을 선진국 수준으로 끌어올리는 것은 피할 수 없는 도전적 과제다. 미국과 중국을 비롯한 강대국들의 틈바구니에서 우리의 목소리를 키워나갈 수 있는 길이기도 하다. 그 첫걸음이 인재 양성에 있다는 것은 주지의 사실이다.

때문에 해외 여러 곳에서 특히 미국 등 선진 국가에서 인공지능 전문가로 성장하고 있는 한국인 연구자들을 발굴하고 탐색하는 것은 매우 의미있는 일이다. 또, 미래의 한국 인공지능 기술 개발과 산업을 이끌어갈 인재들의 현재와 그 성과를 만나보는 건 즐거운 일이기도 하다.

 

딥마인드 연구과학자 김현직 박사
딥마인드 연구과학자 김현직 박사

"대칭 구조를 잘 반영하는 딥러닝 모델 연구로 순수 과학계의 중요한 문제들을 푸는 데 기여하고 싶습니다."

현재 인공지능(AI)계 최첨단 주제는 기존 딥러닝의 한계를 보완하는 기술들이다. 해석가능한 모델은 딥러닝 블랙박스 문제를 해결해 자율주행 실현을 결정하고, 비지도학습 일종인 어텐션 메커니즘은 라벨링 없이 데이터를 자동 분류해 딥러닝 오류를 줄이고 부족한 데이터 질을 개선한다.

최근 딥마인드 알파폴드2가 획기적인 성과를 내 주목받은 단백질 구조 분석, 양자역학과 같은 순수과학계 핵심 과제를 해결하기 위한 기술로는 대칭구조 반영 딥러닝이 언급된다. 딥마인드 연구과학자(Research Scientist)인 김현직 박사의 연구 범위는 이러한 차세대 AI 기술을 모두 아우른다.

김현직 박사는 미국 중심으로 전개되는 AI 연구 흐름을 지켜보면서 영국 옥스퍼드대에서 딥러닝 연구를 시작했다. 처음 영국생활을 시작한 때 10대로 영국 미들섹스주 햄튼 스쿨에서 학창시절을 보냈다. 이후 케임브리지대 수학과에서 학부시절을 보냈으며, 박사학위는 옥스퍼드대에서 머신러닝(ML) 연구로 취득했다.

어린 시절부터 영국에서 생활하고 있지만 한국과의 인연도 놓지 않고 있다. 김현직 박사는 2019년부터 KIST, 서울대 컴퓨터비전 연구소, 포항공대, 네이버랩스까지 기관, 학교, 기업을 넘나들며 국내 연구자들을 대상으로 자신의 연구를 소개하고 있다.

전문가가 아닌 대중을 대상으로 AI를 보다 쉽게 이해할 수 있도록 돕는 일에도 관심이 있다. 2017년 김 박사는 옥스퍼드대 연구원들과 함께 ML을 소개하는 2분 애니매이션을 제작했다. 향후에는 AI를 공부하는 학생들을 지도하는 교수로서 한국에 돌아올 날을 계획하고 있다.

Q. 현재 딥마인드 연구과학자로 일하고 있는데, 딥마인드를 선택한 계기가 궁금하다.

옥스퍼드대에서 박사 2년차를 지낼 때 회사에서의 딥러닝 연구를 경험해보고 싶어 여러 기업에 지원을 했고 마이크로소프트 리서치(MSR), 아마존 리서치, 딥마인드 3곳에서 연구인턴 제안을 받았다. MSR에서는 이미 석사 학위를 마친 시점에 인턴 생활을 했었고 당시 아마존은 상품개발에 응용 가능한 AI 연구에 초점을 맞추고 있었다. 반면 딥마인드는 보다 기초 연구에 집중하는 것으로 판단했기에 개인적으로 1순위였다.

또한 당시에 확률론적 ML에서 딥러닝으로 관심을 돌린 시기라 딥러닝 연구로 유명한 딥마인드가 더욱 매력적으로 느껴졌다. 2016년 이세돌과 알파고 대국으로 인해 당시 AI·ML 박사과정 학생들 사이에서 인기가 굉장히 높았던 것도 선택에 영향을 줬던 것 같다.

3개월 인턴십이 끝나자 운 좋게도 파트 타임 연구자로서 박사학위와 딥마인드 일을 동시에 진행할 수 있게 됐다. 2019년 여름 박사 학위를 마친 후부터는 풀타임 연구원으로 근무하고 있다. 이후 애플에서도 연구직 제안을 받았지만 애플 역시 기초연구보다는 응용연구에 주력한다고 판단해 딥마인드에 남았다.
 

Q. 주 연구분야인 확률적 모델링을 설명하자면?

박사 학위 초반에는 확률론적 (probabilistic) ML, 특히 베이지안(Bayesian) ML 위주로 연구했다. 학부 전공이 수학, 석사 전공이 확률·통계인 만큼 ML분야 내에서도 확률론적 ML에 관심을 가지게 된 것 같다. 이후 딥러닝 연구 성과에 주목하게 되면서 수학적인 강점을 살리면서 딥러닝 연구를 할 수 있는 확률론적 모델링과 딥러닝의 교차점에 관심을 갖게 됐다.

딥러닝에서는 대개 무작위성(randomness)이 없는 결정론적 (deterministic) 모델이 많이 쓰이는데, 무작위성 혹은 확률론이 꼭 필요한 경우들이 있다. 특히 자율주행차에서는 딥러닝 모델이 하는 예측 정확도를 파악해야 안전한 자율주행 알고리즘을 만들 수 있다. 여러 사람의 생명과 직결되기 때문에 이 정확도 혹은 불확실성을 파악하는 것이 굉장히 중요하다. 이 불확실성을 수치화(uncertainty quantification)하는데 필요한 것이 확률론이다. 모델들을 확률론적 원칙에 입각해서 개발하고, 개발된 모델에 어떤 장점과 한계들이 있는지 탐구하는 것이 확률론적 모델링과 딥러닝의 교차점에서 이루어지는 연구 예시다.

GAN와 GPT-3처럼 다양한 이미지·텍스트를 생성하는 생성모델(generative model)에도 해당 기술을 적용해 개선할 수 있다. 예시로 ‘Disentangling by Factorising’ 연구에서 이미지 생성 모델을 활용해 분리(disentangling) 과제를 푸는 시도를 한 적이 있다. 분리(disentangling)는 각양각색의 얼굴 사진 데이터를 얼굴형, 눈동자 색, 헤어스타일, 안경 유무 등 각 특징을 기준으로 자동 분리해 수치화하는 과제다.

결정론적 모델 작동 과정을 이미지화한 자료. 3D Shapes 데이터셋에서 물체 모양, 물체 색, 카메라 위치, 바닥 색, 배경 색 등의 특징들을 분리(disentangle)해서 하나씩 변경하는 모습이다.

대개의 경우 이미지 데이터에서는 사진만 제시할 뿐 사진 내 특징에 대한 정보(label information)가 없다. 알고리즘은 주어진 사진들 간 공통점과 차이점을 통해서만 특징들을 자동으로 추출해내야 한다. 이와 같이 라벨이 주어지지 않은 데이터를 자동으로 처리하는 것이 비지도학습(unsupervised learning)이다.

비지도학습을 통해 분리(disentangling)가 가능하다는 연구를 접하고 매료되어 나도 해당 분야 연구를 시작했다. VAE(Variational Autoencoder)라는 생성모델을 활용해 모델의 각 임의변수(latent variable)가 특징 하나하나를 수치화하게끔 유도하는 연구를 한 바 있다. 이외에 확률론적 딥러닝에서 할 수 있는 연구는 굉장히 다양하다.
 

Q. 다른 주요 연구로 주의(attention) 기반 딥러닝 모델을 꼽았다.

딥러닝에서 최근 크게 화두가 된 것이 주의(attention)라고 부르는 개념이다. 이는 이전부터 존재했던 개념을 변형해 self-attention이라는 이름으로 2017년 기계번역에 적용돼 굉장한 성과를 보여줬다. 주의(attention)는 데이터에서 예측에 필요한 부분을 부각시키고 필요하지 않은 부분은 무시할 수 있도록 학습하는 개념이다. 예를 들어, 번역 알고리즘을 통해 한영 번역을 할 때 다음에 올 영어 단어를 파악하기 위해 어떤 한글 단어를 참고해야 하는지 알려주는 식이다.

나는 이 주의(attention)라는 개념을 뉴럴 프로세스(Neural process) 모델에 적용한 ‘Attentive Neural Process’ 연구를 진행했다. 뉴럴 프로세스란 확률과정(stochastic process)에서 발생하는 데이터를 딥러닝을 활용해 학습하는 모델이다. 확률과정은 금융수학을 비롯한 각종 응용의 기초가 되는 확률론 개념으로, 굉장히 다양한 종류의 데이터가 확률과정에서 발생했다고 해석할 수 있다.

Attentive Neural Process를 통해 학습 시 손상되거나 결여된 데이터를 복원하고 퀄리티를 높일 수 있다. 이미지 데이터의 경우 가려진 부분을 보완하고 해상도를 높이는 것이 가능하다. 주의(attention) 메커니즘은 손상된 부분의 픽셀을 채워넣기 위해 손상되지 않은 픽셀 중 어떤 픽셀을 참고해야 하는지 알려주는 역할을 한다.

attentive neural process 작동 과정을 보여주는 이미지

최근에는 보다 이론적인 내용인 ‘The Lipschitz Constant of Self-Attention’이라는 논문을 냈다. 주의(attention) 메커니즘의 인풋이 변함에 따라 아웃풋이 얼마나 변하는지를 수학적으로 분석했다. 학부 때 배운 수학 이론이 주의(attention) 매커니즘의 수학적 성질을 증명하는데 도움이 됐다.
 

Q. 수학적 사고능력이 AI 연구에 중요한 소양으로 언급되는 경우가 많다. 학사와 석사전공이 수학인데 AI 연구에 영향을 준 부분이 있는지?

ML과 딥러닝에 활용되는 수학으로는 미적분학과 선형대수가 가장 기초라고 할 수 있다. 앞서 언급한 ‘The Lipschitz Constant of Self-Attention’ 연구에서 선형대수가 많은 도움이 됐다. 확률적 ML 연구와 이론 연구에서는 확률론과 측도론(measure theory)을 상당 부분 활용했다. 최근 진행한 ‘LieTransformer: Equivariant Transformers for Lie Groups’ 연구에서는 군이론(group theory)과 군표현론(representation theory) 지식이 아주 유용했다.
 

Q. 자신의 주요 연구 분야에 대한 글로벌 동향은 어떤가? 미국, 영국, 한국 등 각 국가 상황을 비교한다면?

확률론적 딥러닝이나 대칭구조 반영 딥러닝은 영국을 포함한 유럽쪽 연구팀들이 강세를 보이고 있다. 하지만 전반적으로 딥러닝 연구에 대해서는 미국 연구팀들이 주류를 형성하는 상황이다. 박사를 시작한 시기인 2015년에는 관련 학회에서 발표하는 한국인 연구자가 손에 꼽을 정도였다. 반면 최근에는 학회마다 100명 정도는 보이는 걸 보니 한국에서도 미국이나 영국 못지 않은 연구 아웃풋이 있는 것 같다.
 

Q. AI 공부를 위해 해외 유학을 계획하는 개발자들에게 조언을 한다면?

자신을 돌아보면 아무래도 잘한 것보다 아쉬운 점들이 떠오른다. 나는 다른 AI·ML 연구자들에 비해 코딩을 늦게 시작한 편이다. 학부 3학년 때 처음 코딩을 해봤는데 좀 더 어린 나이부터 접했다면 지금 훨씬 코딩을 잘하지 않을까 하는 생각이 든다. 그만큼 AI 연구는 코딩 경험과 능력이 굉장히 중요한 것 같다. 제대로 된 컴퓨터 공학 교육을 받은 적이 없는 것에 대한 아쉬움도 있다. 하지만 기초 수학 지식을 갖춘 점, 운 좋게 영국에서 학창시절을 보내면서 자연스럽게 영어 공부를 한 것은 잘한 일이다.

초등학생으로 돌아간다면 코딩을 일찍부터 경험해보고 대학에서는 수학과 컴퓨터공학 복수전공을 할 것 같다. 다만 초중고 과정 동안에는 AI 연구를 위해 코딩을 하거나 학원을 다니면서 주어진 교과 과정을 이수하기보다는, 코딩으로 여러 어플리케이션을 만들어보는 프로젝트 방식으로 코딩에 흥미를 붙이고 공부할 것이다. 기본적으로 코딩은 영어로 하는 것이기 때문에 영어공부도 필요하다.

AI 대학원이나 AI 관련 취업을 준비하는 학부생은 관심 분야 논문을 많이 읽어보고 분석하는 것을 추천한다. 아직 코드가 공개되지 않은 논문의 모델이나 알고리즘을 직접 구현해서 깃허브(github)같은 곳에 코드를 올리고 자신의 포트폴리오를 만드는 것도 중요하다. 이를 토대로 기업이나 연구실에 적극 지원을 해 인턴십 경험을 쌓고, 학회에 논문도 발표한다면 해외로 유학을 가거나 취업하는 데 많은 도움이 되리라 생각한다.
 

Q. 향후 10년 내 AI 발전은 어느 정도까지 진행될 것으로 예상하는지?

근 10년동안 상당부분 AI 연구는 인간만이 할 수 있던 것을 기계가 조금 더 빠르고 정확하게 하는 것에 초점이 맞춰져 있었다. 앞으로 10년 동안은 이런 추세가 이어질 뿐만 아니라 인간이 해결하지 못하는 문제들까지 AI가 해결하는 경우가 종종 발생할 것 같다. 딥마인드의 단백질 구조 예측 알고리즘인 알파폴드2 가 하나의 예시다. 전문가들에 의하면 알파폴드2 성과는 질병학을 비롯한 생물학 전반과 신약개발에 굉장한 영향이 있을 것으로 예상된다.


Q. 현재 가장 관심을 보이고 있는 분야도 기초과학 연구를 돕는 AI 기술인 것으로 안다.

그렇다. 현재 가장 관심을 가지고 있는 분야는 ‘대칭구조 반영 딥러닝’이다. 최근 알파폴드2 뿐만 아니라 양자역학이나 양자화학 등 각종 순수과학 분야에서 딥러닝을 적용하는 추세가 이어지고 있다. 딥러닝이 해당 분야 문제들을 풀기 위해서는 과학 현상에서 드러나는 각종 대칭 구조를 잘 반영해야 한다.

딥러닝에서 다루는 많은 응용과 과제에는 일종의 대칭 구조가 있는 경우가 빈번하다. 예를 들어, 안면 인식을 할 때 같은 얼굴을 좌우로 뒤집거나 회전을 시켜도 인식이 가능해야 한다. 얼굴인식 기술에는 좌우대칭과 회전대칭 구조가 필요하다는 것이다. 이런 대칭 구조를 반영할 수 있는 모델이 대칭구조 반영 딥러닝이다.

김현직 박사의 Equivariant Transformer 연구 내 자료. 주의 메커니즘 적용 시 보다 높은 예측 정확도를 보인다.

근래에 옥스퍼드 대학 박사 학생들과 함께한 ‘Equivariant Transformers for Lie Groups’ 연구에서는 주의(attention) 메커니즘이 대칭구조를 반영하는 것을 가능케 했다. 화학에서 각종 분자의 성질을 예측하는 molecular property prediction task와 물리학에서 입자들의 움직임을 모델링하는 particle trajectory modelling via Hamiltonian dynamics task에 대칭구조 기반 딥러닝을 적용했다. 앞으로도 대칭 구조를 잘 반영하는 딥러닝 모델 연구를 진행해 순수 과학 분야 내 중요한 문제들을 푸는 데 기여하고 싶다.

AI타임스 박성은 기자 sage@aitimes.com

[관련기사]딥마인드 “50년 묵은 과제 해결했다”...알파폴드2로 코로나19 바이러스 단백질 구조 예측

[관련기사]알파고를 넘어 새로운 강화학습 세계를 연다...딥마인드 오준혁 박사

키워드 관련기사
  • 알파폴드2로 생물학계 지각변동 예고한 딥마인드 “한 해 손실액 7333억원”
  • “인간 뇌 진화 과정 모방해 새로운 강화학습 알고리즘 구축”...고려대 이성환 교수 인터뷰
  • 딥마인드 Lab2D, 강화 학습 연구 효율 높인다