소셜AI 분야에 도전해서 뛰어난 성과를 내고 있어
카네기멜론대 '팬옵틱 스튜디오'로 유명해져
" 자신이 할 수 있는 것보다 조금 무리해 도전" 후배들에게 조언도

주한별 박사

“로봇이 인터넷에 올라온 요리 영상을 보고 요리하는 법을 배울 수 있게 됩니다.”

“향후 10년 내 AI로봇이 사람과 마주보고 대화하면서 시각적·언어적 정보를 주고받으며 자유롭게 의사소통할 수 있을 겁니다.”

소셜 AI분야에서 두각을 드러내고 있는 주한별 박사가 이메일 인터뷰에서 한 말이다. 장밋빛 미래를 그려 놓은 것이라고 치부할 수도 있지만, 우리 앞에 ‘쉐프가 요리하는 걸 보고 학습해 요리하는 로봇’이 등장할 날이 머지않았다는 짜릿한(?) 느낌을 갖게 한다.

미국 페이스북 AI리서치(FAIR)에서 인공지능 연구자로 활동 중인 주한별 박사는 도전적이다. 도전적인 연구로 이미 박사과정 때부터 언론에 이름이 나기 시작했다. 영상에서 사람의 움직임을 감지하고 그 의미를 이해하는 컴퓨터 비전(Computer Vision) 분야의 연구에 집중하고 있는 주 박사는 미 카네기멜론대 박사과정 중 거대한 팬옵틱(panoptic) 스튜디오 제작에 참여해 화제가 됐다.

팬옵틱 스튜디오는 카메라 500대와 뎁스 카메라(depth camera) 20대, 무선 마이크 30개를 설치해 사람의 움직임을 캡처해 2분당 약 1TB(테라바이트)의 데이터를 생성해 내는 대규모의 스튜디오(동영상 참조). 무한도전을 연상케 하는 과감한 시도로 로이터 등 세계 언론의 관심을 받기도 했다.

주 박사가 컴퓨터 비전 분야를 파고 들기 시작한 것은 석사과정을 마치고 ETRI(한국전자통신연구원)에서 연구원으로 근무할 때부터다. 카메라 20대로 촬영한 사람의 움직임을 3차원으로 복원·분석하는 연구를 수행하면서 시작됐다. 이후 그의 관심은 ‘어떻게 하면 기계나 로봇이 사람의 움직임을 보고 그 의미를 이해하게 만들 수 있을까’로 자연스럽게 이어졌다. 사람들이 쉽게 이해하는 ‘몸짓, 발짓’ 이라고 흔히 부르는 바디랭귀지(Body Language)를 로봇이 이해하도록 만든다는 건 매우 도전적인 과제일 수밖에 없다.

팬옵틱스튜디오 프로젝트는 그 반향이 꽤 컸고, 이를 기반으로 자폐증 연구진들과 협력해 추가 연구를 진행하기도 했다. 물론 만족할만한 수준까지는 아직 도달하지는 못했지만, 이 과정에서 생성된 데이터는 모두 오픈소스로 공개해 후속연구가 전 세계적으로 이루어지고 있다.

그의 도전은 2018년 CVPR 인공지능 학회에서 최고학생논문상(Best Student Paper Award)를 수상하면서 작은 결실을 봤다. CVPR(IEEE Conference on Computer Vision and Pattern Recognition)은 세계 최대 기술 전문 기관인 IEEE(국제전기전자기술자협회)와 CVF(컴퓨터비전재단)가 1983년부터 공동 주최하는 세계적으로 인정받는 컨퍼런스다.

CVPR 2018에 발표한 “전면적인 데이터 수집: 얼굴, 손, 몸을 추적하기 위한 3D변형(Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies)”이라는 논문은 사람의 몸·얼굴·손가락의 움직임을 3차원으로 한 번에 복원하는 연구였다. 팬옵틱 스튜디오 프로젝트를 통해 그동안 발표했던 연구의 결론적인 성격을 띤 것이다.

 

 

주 박사는 최근에는 이런 직접 데이터가 아닌 인터넷에 있는 영상들을 활용하는 연구를 활발히 진행 중이다. 최신의 진전된 딥러닝 연구 결과를 적용해 이론적으로 불가능했던 3차원 데이터를 확보하는 데 새롭게 도전하고 있다.

그는 최근 미국에서 AI윤리가 심도있게 논의되고 있다면서, 이전에는 AI알고리즘이 거의 동작하지 않았기 때문에 일상 생활에 활용되기까지 아직 긴 시간이 필요한 것으로 생각했다고 진단했다. 기술 발전으로 실제 활용이 가능해지면서 해결해야 할 새로운 고민들이 생겨나고 있다고 본다.

한국 AI 수준에 대해서는 ‘질적·양적 모두 선두 그룹 수준에 와 있다.’라고 보는 주 박사는 한국이 앞으로 새로운 분야를 개척하고 이끌어 나가는 데 초점을 맞출 것을 제안했다.

카이스트를 나온 그는 AI개발자가 되고 싶은 후배들에게 직접 코드를 구현해보는 것이 좋은 방법이라고 권유한다. 또, 그는 영어의 중요성을 새삼 강조하기도 했다. 한국어로는 정보량이 제한된다는 것이다.

무엇보다도 AI개발자는 끊임없이 주어진 목표를 향해 노력하는 성실성이 기본이라고 말하는 주 박사는 ‘자신이 할 수 있는 것보다 조금 무리해서 도전해 볼 것’을 강조한다. 치열한 경쟁에서 자신의 강점을 확인해가며 계속 성장해 온 그만의 도전적 경험론이기도 하다.

 

다음은 주 박사와 일문일답한 내용이다.

- 페이스북AI리서치(FAIR)연구소에서 언제부터 일했나요? 이전에 쮜리히 디즈니 연구소, 피츠버그 페이스북 리얼티티 랩에서도 일한 적이 있는 걸로 알고 있는데, 어떤 연구 활동을 주로 해왔나요?

“2019년 1월 카네기 멜론 대학 로봇 연구소 (Robotics Institute) 박사를 마치고 거의 바로 FAIR (Facebook AI Research) 에서 Research Scientist로 근무를 시작했습니다. 박사과정 중에 인턴연구원으로 취리히 디즈니 연구소, 페이스북 리얼리티 랩 (당시, 오큘러스 리서치) 에서 연구할 기회를 가졌습니다.

제가 연구하는 분야는 컴퓨터 비전 (computer vision) 이라는 분야로, 컴퓨터나 로봇이 사진이나 비디오에 찍힌 장면을 이해하도록 하는 연구를 합니다. 이때 장면을 이해한다는 건 2D 영상에서 물체의 위치를 찾고 종류를 알아맞히거나, 아니면 그 장소나 물체들의 3차원 정보를 알아내는 것을 의미합니다. 컴퓨터 비전 기술은 인공지능의 대표적인 분야 중 하나로, 기계학습 (machine learning) 이나 그래픽스 (graphics) 분야와도 밀접한 관련이 있습니다.

특별히 제가 집중하는 연구 분야는 영상에서 사람의 모습이나 움직임을 감지하고 그 의미를 이해하는 연구인데요. 박사과정 때부터 시작해서 지금 FAIR에서도 거의 같은 목표를 가지고 연구를 하고 있습니다. 인턴을 했던 디즈니 연구소나 오큘러스 리서치도 특수효과나 가상현실을 위해 이런 기술이 활용되기 때문에 비슷한 목표를 가지고 연구를 진행할 수 있었습니다.”

- ETRI에서도 3년간 계셨던데요. 어떤 연구를 했나요?

“ETRI에서도 거의 비슷한 연구를 진행했습니다. 20대의 카메라로 촬영한 사람의 움직임을 3차원으로 복원하고 분석하는 연구였습니다. 의도한 것은 아니었는데 이때부터 한 분야의 연구를 계속하게 되었네요. 단지 이때는 석사를 막 마치고 회사에 입사했을 때라 연구 경험이 많이 부족했습니다.”

- 소셜 AI에 관심을 가지고 연구를 해왔던데, 특별한 계기가 있었나요? 연구 분야에 대해 개략적으로나마 설명해줄 수 있을까요?

“제가 연구하는 컴퓨터 비전이라는 분야의 궁극적인 목표는, 기계가 인간과 유사한 시각적 지능을 가지게 하는 것입니다. 요즘은 인공지능 연구의 한 축으로 대단히 많은 관심을 받고 있는 분야입니다. 이 분야에서도 특별히 사람에 대한 연구를 시작했던 이유는 사람이라는 대상이 인공지능 알고리즘들이 분석하는 객체 중에 단연 가장 중요하다고 생각했기 때문입니다.

인터넷에 올라온 사진이나 동영상을 보면 사람을 찍은 사진이 다른 객체 (동물/가구/자동차 등등) 보다 압도적으로 많습니다. 무엇보다 다른 객체들과 달리, 사람의 움직임에는 굉장히 많은 의미가 담겨있습니다.

따라서 단순히 영상에서 사람의 위치만 찾아내는 정도로는 충분하지 않습니다. 사람의 얼굴과 팔이 어떻게 움직이고 있는지를 정확히 아는 것이 중요합니다. 무엇보다 사람은 몸의 움직임을 일종의 언어로 사용합니다. 미세한 손짓, 몸짓, 표정 등을 통해서 자신의 감정이나 의도를 전달하지요. 기계가 이런 정보를 이해하는 것은 대단히 어려운 문제입니다.

기계나 로봇이 사람처럼 다른 사람의 움직임을 보고 그 의미를 이해하기 위해서는, 가장 먼저 2D 영상에서 이런 3차원 움직임 정보를 추출하는 것이 가능해야 합니다. 더 나아가 그 의미를 이해하는 것이 중요합니다. 움직임을 추출한다는 것은 일종의 모션 캡쳐 같은 데이터를 얻는 것입니다. 사람의 움직임 정보를 가장 이해하기 쉬운 데이터의 형태로 만들어내는 것이지요.

하지만 특수한 수트를 입거나 몸에 마커를 붙이지 않고 일상 생활의 사람들의 모습을 촬영한 사진이나 비디오에서 이런 정보를 얻어내는것은 대단히 어려운 일입니다. 물론 우리 인간에게는 이것이 너무 쉬운 일이죠. 다른 사람의 손가락이 어떻게 움직이는지 동공이 무슨 방향으로 움직이는지 우리는 너무도 쉽게 인지할 수 있습니다. 심지어 한쪽 눈을 가리고서도 말이죠.

그 움직임의 의미를 이해한다는 것은 더 어려운 문제입니다. 예를 들어 우리가 공을 던지는 사람을 보고 있다고 생각한다면, 앞으로 그 사람이 어떻게 팔을 움직일지 그리고 그로 인해 공이 어떻게 날아갈지 유추해 낼 수 있는데요. 이것은 단순히 지금 당장의 움직임 정보를 추출하는 것 뿐만 아니라 그 움직임의 의미를 알고 있어야 가능한 문제입니다.

우리가 의사소통을 위해 사용하는 움직임 (보통 바디 랭귀지라고 부르는)을 이해하는 건 훨씬 더 어려운 문제입니다. 예를 들어, 아주 미세한 표정의 변화나 행동의 변화가 상대방에게 아주 다른 느낌이나 의도를 전달할 수가 있는데요. 이런 미세한 움직임을 알아채는 것도 그리고 그 의미를 이해하는 것도 인간은 너무 쉽게 하고 있지만, 이것을 컴퓨터나 로봇에게 가르치는 것은 너무 어려운 문제입니다.

소셜AI(Social AI)는 사실 원래 널리 쓰이는 용어는 아니고 제가 박사 졸업할 때 앞으로의 연구 목표를 생각하며 만든 용어입니다. 로봇이 사람과 생활하기 위해서는 궁극적으로는 이런 시각적 지능을 갖춰야 할 것이라고 생각하고 있고, 그런 목표를 가지고 연구를 진행하고 있습니다. 물론 아직 갈 길이 아주 먼 연구입니다.“

- 박사를 취득한 카네기멜론 대학(CMU)에서 제작한 팬옵틱 스튜디오가 화제가 됐다. 언론에서도 보도가 됐는데, 팬옵틱 스튜디오를 만드신 목적은 무엇인가요?

“팬옵틱 스튜디오를 만든 목적도 앞서 말한 소셜 AI와 일맥상통합니다. 일단 사람의 움직임의 의미를 정확히 분석하기 위해서는 실제 사람의 모션 데이터를 정확히 그리고 많이 추출해야만 합니다. 이런 데이터가 많아지면 기계 학습 기술을 활용해 기계에게 사람의 움직임의 의미를 가르칠 수 있기 때문입니다.

마커를 붙이거나 영화에서 흔히 쓰는 모션캡쳐 장비를 쓸 수 있지만, 저희는 최대한 자연스러운 환경에서 일상복을 입은 사람들이 자연스럽게 의사소통하는 상황을 고려하고 싶었습니다. 가령 사람들이 자유롭게 게임을 하고 놀거나, 피자를 먹거나, 가구를 조립하는 등의 일상적인 상황을 말이죠.

지금도 그렇지만, 저희가 팬옵틱 스튜디오를 만들던 당시(2012년)에는 마커를 쓰지 않고 사람의 모션 데이터를 추출하는 것이 대단히 어려운 문제였습니다. 가장 현실적인 해결방법은 카메라를 엄청 많이 설치하여서 문제를 조금 쉽게 만드는 것이었습니다. 그렇게 설계된 팬옵틱스튜디오에는 약 500개의 카메라와 20개의 뎁스 카메라(depth camera), 30개의 무선 마이크를 설치했습니다. 2분당 약 1TB의 데이터를 생성해 내고, 이 데이터를 저장하기 위해 약 2PB의 스토리지를 설치했습니다.

카네기멜론의 멀티 카메라 시스템은 사실 굉장히 깊은 역사가 있습니다. 컴퓨터 비전 분야의 선구자이셨던 다케오 카나데 교수님께서 1990년대에 이미 세계 최초로 50대의 카메라를 연결해서 이런 연구를 시작하셨죠. 당시 상황을 고려했을 때 정말 엄청나게 진보되고 야심 찬 프로젝트였습니다. 그 연구 결과가 실제로 2001년 미국 수퍼볼 중계에 사용되기도 하였습니다. 팬옵틱 스튜디오는 이런 연구의 연장선에 있는 프로젝트로, 카네기 멜론 특유의 혁신적이고 실패를 두려워하지 않는 연구 문화가 있었기에 가능했던 것 같습니다.“

- 팬옵틱 스튜디오의 경우 미묘한 인간 행동을 포착할 수 있어서 치매나 자폐증 같은 질병의 징후를 알아낼 수도 있다고 하는데요, 어디까지 확장 가능한 것으로 생각하나?

“팬옵틱 스튜디오 프로젝트는 실제로 그런 표를 가지고 자폐증을 연구하는 심리학자들과의 협력을 통해 미국 국립과학재단(NSF)의 자금지원을 받아서 연구가 시작됐습니다. 하지만, 결론적으로는 원하던 레벨까지는 도달하지 못했습니다.

하드웨어적으로도 소프트웨어적으로도 여러 가지 한계와 어려움을 경험했으니까요. 카메라를 많이 달았기 때문에 여러 명의 움직임을 동시에 추출하는 것에는 유리했지만, 여전히 모션의 정확도에는 한계가 있었습니다. 게다가 생성하는 데이터가 너무 커서 생성한 데이터를 처리하는 것이 어려웠습니다. 제가 졸업할 때 까지 촬영한 데이터가 약 1.5 PB 였습니다만, 사실 시간으로만 따진다면 수십 시간 정도밖에 되지 않는 데이터양이었습니다. 인간행동 패턴을 기계에게 학습시키기에는 턱없이 부족한 양이었죠.

하지만 워낙 높은 목표를 가지고 시작했기 때문에 여러 가지 의미 있는 연구 결과를 얻을 수 있었습니다. 가령 자유롭게 움직이는 여러 사람의 3차원 모션을 손가락까지 복원하는 연구는 저희가 최초로 보인 결과입니다. 저희가 생성한 데이터는 모두 오픈 소스로 공개해 전 세계에서 많은 후속 연구가 진행되고 있습니다. 팬옵틱 스튜디오를 통해 처음으로 보인 영상에서 손가락 모션을 추출하는 연구는 오픈포즈(Openpose)라는 오픈소스 라이브러리로 공개되었고, 전 세계에서 가장 대표적으로 사용되는 2D 사람 모션 추출 시스템이 됐습니다.

사람의 모션을 분석하는 분야가 굉장히 빠르게 성장하고 있고, 하드웨어도 저희가 처음 팬옵틱 스튜디오를 설계했을 때와는 비교도 안 되게 좋아지고 있습니다. 사람들의 일상생활을 촬영한 데이터의 양도 엄청 빠르게 축적되고 있고요. 이런 요소들로 인해 머지않아 미묘한 인간 행동을 포착하고 이해할 수 있는 기술이 가능하리라 생각합니다.”

 

 

- 개인적으로 가장 좋게 평가하는 논문이나 연구가 있다면?

“개인적으로 가장 의미 있는 연구는 CVPR 2018년에 발표한 “Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies” 라는 제목의 연구입니다. 팬옵틱 스튜디오 프로젝트를 통해 그동안 발표했던 연구의 결론적인 연구인데요. 사람의 몸/얼굴/손가락의 움직임을 3차원으로 한 번에 복원하는 연구였습니다.

특별히 이 연구가 제게 더 의미가 있는 이유는 CVPR(최근 구글 스칼라에서 발표한 학회/저널 랭킹에서 CVPR은 전체 분야를 통틀어서 5위에 올라와 있습니다. 인공지능 분야의 인기를 실감할 수 있는 내용입니다.)이라는 인공지능에서 가장 널리 알려진 학회에서 최우수 학생 논문상(Best Student Paper Award) 받았기 때문이기도 합니다.

이 상은 제가 10년 전 비전(vision) 분야 연구를 처음 시작하면서 꿈꿔왔던 상이었습니다. 박사시작할때 농담으로 지도 교수님께, “내 박사과정의 목표는 CVPR에서 상을 받는 것입니다” 라고 했던 기억이 납니다. 솔직히 저희 논문이 이 상을 받을 정도로 뛰어난 논문이라고는 생각하지 않습니다. 아마도 그동안 팬옵틱 스튜디오 프로젝트를 이끌면서 지속해서 발표했던 연구를 다 합쳐서 평가해주지 않았나 생각이 됩니다.

가장 최근에 FAIR에 와서 진행하고 CVPR 2020에 발표했던 “PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization” 연구도 제가 너무 좋아하는 연구입니다. 제가 멘토의 입장에서 저의 첫 인턴학생과 진행했던 연구인데, 사진 한 장만으로 사람의 3차원 모델을 복원하는 연구입니다.

연구 결과도 엄청 좋았기에 많은 주목을 받았고, 무엇보다 저희 연구를 오픈소스로 공개하자 많은 사용자분들이 직접 자기 결과를 인터넷에 올리고 있습니다. (Twiter에 pifuhd로 검색하시면 보실 수 있습니다). 보통 연구 결과들이 연구원들 사이에서만 이야기되기 마련인데 이 연구는 일반 대중들이 더 좋아해 주는 것 같아서 즐거웠습니다.”

- 요즘 관심을 가지고 계신 연구 방향은?

"예전에는 팬옵틱 스튜디오라는 시스템을 이용해서 직접 데이터를 촬영하는 연구를 했다면, 이제는 인터넷에 올라와 있는 수많은 영상을 활용하는 연구에 관심을 가지고 있습니다. 팬옵틱 스튜디오 에서는 많은 카메라를 이용해서 좀 더 정확한 모션 데이터를 얻을 수 있지만, 얻을 수 있는 양이 제한되어 있고 스튜디오 공간에서 촬영할 수 있는 시나리오도 다양하지 않죠.

그에 비해 인터넷에는 훨씬 많은 양의 데이터가 더 다양한 상황에서 촬영되어서 올라오고 있습니다.

만일 기계가 이런 영상을 보고 지식을 습득할 수 있다면 굉장히 흥미로울 것입니다. 예를 들어 요리하는 법이나, 운동하는 법, 가구를 조리하는 법을 배울 수 있겠죠. 물론 이 경우는 영상이 카메라 하나로 촬영이 되었기 때문에, 3차원 데이터를 얻어내는 것이 이론적으로는 불가능합니다. 하지만 최근 딥러닝을 통한 많은 진보가 있었고, 어느 정도 가능성을 보이고 있습니다 (관련된 저희 최근 논문을 참고하세요)."

- 한국의 AI 수준에 대해서는 어떻게 평가하나?

“한국의 AI의 수준은 이미 질적으로나 양적으로 굉장히 높은 위치에 있습니다. 꽤 오래전부터 한국 학교들과 기업들에서 세계적으로 가장 유명한 학회와 저널에 꾸준히 논문을 발표해왔습니다. 특히 요즘은 거의 모든 연구가 오픈소스로 공유를 하기 때문에 다른 나라 다른 그룹에서 진행한 좋은 연구 결과를 빠르게 따라 잡는 것이 가능합니다.

국가나 연구실 간의 차이와 간격이 점점 좁아질 수 있는 이유입니다. 한국은 분명 세계적으로도 선두그룹에 속해 있습니다. 앞으로는 새로운 분야를 개척하고 이끌어 가는 데 초점을 맞추는 것이 의미가 있어 보입니다.”

- 향후 10년 이내에 소셜 AI는 어느 정도까지 발전할 것으로 예상하나?

“최근 NLP의 성장세는 엄청났고 언어를 통한 의사소통을 하는 기술에는 많은 진보가 있었습니다. 아이폰 siri나 아마존 에코같은 제품도 나왔구요. 앞으로는 시각적 정보를 통해 바디랭귀지를 이해하고 사용하는 기술도 비슷하게 많은 진보가 있을 것이라 생각합니다. 향후 10년 이내에 사람과 마주보고 대화하면서 시각적·언어적 정보를 주고받으며 자유롭게 의사소통하는 AI가 나올 수 있을 것이라 생각합니다.”

- AI 개발자와 로봇 개발자는 공통점과 차이점이 있을텐데, 어떻게 봐야 하나?

“AI기술은 특별한 어플리케이션이 없더라도 특정 이론을 데이터를 통해 증명하거나 특정 데이터셋에 대해 새로운 가능성을 보이는 것만으로도 충분한 의미가 있을 수 있습니다. 그 결과가 실용적이지 않은 경우도 많구요. 로봇 연구는 목표가 좀 더 분명하고, 그에 따라 필요한 AI기술도 분명합니다. 실시간성이나 제한된 리소스에 관한 고민도 필요하고요.

로봇연구도 하드웨어로 접근하는지 소프트웨어적으로 접근하는지에 따라 목표와 초점이 다를 수 있습니다. 미국의 로봇연구는 조금 더 컴퓨터공학(CS)와 인공지능 에 중점을 두고 있는 것 같습니다. 제가 있었던 카네기멜론대 로봇연구소(Robotics Institute)도 컴퓨터공학과 소속이었고 직접 로봇을 만들기보단 이미 만들어진 로봇을 사서 소프트웨어만 개발하는 연구가 많았습니다.”

- 인간을 이해하는 로봇 개발은 가능할까요? 로봇개발에 있어서 AI윤리적인 관점은 어떻게 적용되어야 할까요? 미국에서는 어떻게 논의되고 있는지요?

“실제로 이 문제는 최근에 굉장히 깊이 있게 논의되고 있는 주제입니다. 인공지능 기술이 대부분 학습을 위한 데이터에 기반을 두고 있는데, 이 데이터가 가진 편견(bias) 문제로 인해서 논란 있는 결과를 만들어 낼 수 있습니다. 예를 들어, 영상에서 사람을 찾거나 알아챌 때 특정인종이나 피부색에 따라 정확도가 다르게 나타나는 등의 내용인데요. 기술적으로는 이해가 가능한 내용이지만 자칫 인종차별과 관련해서 윤리적인 문제를 가져올 수 있습니다.

또 다른 문제로 사생활보호(privacy) 문제가 있습니다. 가령 인터넷에 자유롭게 열람이 가능한 퍼블릭 데이터를 가지고 인공지능 알고리즘을 학습시킨다고 했을 때, 어차피 공개된 데이터이기 때문에 문제가 없다고 생각하는 사람이 있고, 소유권이 있기 때문에 그렇지 않다는 의견도 있습니다.

과거에는 이런 문제들이 크게 거론되지 않았습니다. 알고리즘은 거의 동작하지 않았기 때문에 당장의 정확도를 높이는 것에만 집중했었기 때문입니다. 그 동안 많은 기술의 발전이 있었고 실제 일상 생활에 활용이 가능하게 되자 이런 새로운 고민들이 생겨나고 있습니다.”

- 카이스트를 나왔는데, 한국의 AI개발자가 되고 싶어 하는 후배들에게 조언을 한다면?

“요즘은 오픈소스도 많이 공개되어 있고, 인터넷에 좋은 강의가 많이 올라오기 때문에 인공지능을 공부할 수 있는 아주 좋은 환경이 구축되어 있습니다. 만일 인공지능 연구자나 개발자가 되고 싶다면 이런 인터넷에 나와 있는 정보들을 빨리, 많이 접해보는 것이 좋을 것입니다.

직접 코드를 만져보고 구현해보는 것이 아주 큰 도움이 됩니다. 특히 문제를 조금 바꿔서 오픈소스를 개선해본다거나 더 나아가 처음부터 구현해 보는 것은 그 기술을 본인의 것으로 만들 수 있는 가장 좋은 방법입니다.

혼자 배우는 것보다 더 잘하는 누군가에게 배울 수 있다면 가장 빨리 성장할 수 있습니다. 학교 연구실에 들어가는 것도 좋을 테고, 인턴 같은 기회를 활용하는 것도 좋습니다.

좀 더 일반적인 조언도 드리고 싶습니다.

영어 공부는 아무리 강조해도 지나치지 않습니다. 한국어로 되어있는 정보의 양은 제한이 되어 있습니다. 자연스럽게 영어를 읽고 쓰고 소통할 수 있어야 최신 정보를 습득하는 데 유리합니다.

미래를 고민할 때 조금 더 구체적인 계획을 세워보는 것도 좋습니다. 이번 달, 올해, 내년, 5년 안에 어떤 목표를 가지고 어떤 결과를 얻을지를 미리 고민해 본다면 더 강한 동기부여를 가질 수 있습니다.

자신이 할 수 있는 것보다 조금 무리해서 도전해보는 것도 좋습니다. “이걸 어떻게 해?” 혹은 “굳이 이렇게까지 해야 해?” 라는 생각이 들더라도 그렇게까지 해보시는 것을 추천합니다. 적당히 그리고 편하게 해서는 삶에 큰 변화가 생기지 않습니다.”

- 중2 학생들은 인공지능 개발자가 되면 돈을 많이 벌고 유명해질 수 있다고 생각해요. 학부모로서 중2 자녀의 꿈을 잘 키워주려면, 어떻게 해야 할까요?

“어떤 일을 하든 성실함은 기본인 것 같습니다. 시간을 낭비하지 않고 주어진 목표를 통해서 꾸준히 노력하는 능력은 어떤 진로를 선택하든지 가장 중요한 덕목이 될 것입니다. 항상 시간은 부족하고, 해야 할 일은 시간 내에 할 수 있는 일보다 많습니다. 나이가 많아지고, 더 좋은 학교, 더 좋은 환경에 가게 될 수록 더 그렇습니다. 주어진 리소스를 잘 활용해서 남보다 더 좋은 결과를 보이는 능력, 본인의 정신력을 잘 관리하고 동기부여와 모멘텀을 유지하는 능력은 앞으로 계속해서 스스로 훈련하고 노력해야 하는 부분입니다.

목표가 분명할수록 유리합니다. 특별히 어린 학생의 경우, 미래에 대한 꿈을 꿔보고 구체적인 상상을 해보는 것이 중요합니다. 중·고등학교 시절에는 대부분 좋은 대학에 입학하는 것을 목표로 합니다. 하지만 좋은 대학을 졸업하고 무엇을 할지에 대해서는 사실 잘 알지 못합니다. 사실 부모님도 선생님들조차도 그 후에 어떤 진로가 있는지는 잘 알지 못하는 경우 많습니다. 다행히 요즘은 인터넷에 많은 정보가 있으니, 어떤 대학 어떤 학과를 졸업하고 어떤 진로를 갈 수 있을지, 실제로 어떤 일들을 할 수 있는지, 그것을 위해 어떤 준비가 필요한지 일찍부터 알아보는 것이 많은 도움이 됩니다.

항상 최고의 그룹에 속하려고 노력해야 합니다. 물론 최고의 그룹에서는 더 치열한 경쟁이 있을 테고, 훌륭한 동료나 친구들에게서 오는 좌절감도 있을 터입니다. 하지만 그런 동료들 사이에서 살아남다 보면 언젠가 본인도 그들과 비슷해진 자신을 발견하게 될 겁니다.

경쟁이 힘들면 조금 경쟁에서 멀어져도 괜찮습니다. 다만 이런 그룹에 애초에 속하지 않았다면 얻을 수 있는 배움의 양도 제한될 것입니다. 마지막으로, 스스로의 몸과 마음을 건강하게 유지할 수 있는 스킬을 길러야합니다.”

- AI분야로 미국이나 해외로 유학 가고자 희망하는 분들에게 조언을 한다면?

“훌륭한 연구실/랩에서 경험을 쌓는 것이 가장 좋은 방법입니다. 이런 연구실에 가서 알려진 AI 학회에 논문을 내본 경험이 있다면 큰 플러스가 될 것입니다.

미국 학교에서 누군가를 선발할 때 가장 많이 고려하는 것은 추천서입니다. 좀 더 구체적으로 말하자면, 심사위원이 직접 알고 있거나 신임하는 사람의 강한 추천서만 있다면 그 사람을 선발할 가장 큰 이유가 될 수 있습니다.

인공지능의 인기로 인해 지원자들의 숫자와 스펙이 상상을 초월합니다. 이들 사이에서 자신의 강점을 보여줄 무엇인가가 있으면 좋습니다. 논문이나 추천서, 아니면 자신이 공개한 오픈소스 프로그램도 좋은 강점이 될 수 있습니다.”

 

[AI & 산업] KT 기가아이즈, AI CCTV로 범죄 잡는다

[AI & 산업] KT, 지역사회 기반 언택트 치매 돌봄 서비스 나서

 

 

키워드 관련기사
  • 데브섹옵스(DevSecOps)가 뭐지? '깃랩 커밋-버추얼 2020’ 개최
  • 정신병, 불치 대상 아냐...AI로 맞춤형 심리 치료 가능