인간의 뇌에서 방출되는 전기 신호를 사용하여 로봇을 제어할 수 있는 기계 학습 프로그램을 개발했다.(사진=EPFL)
인간의 뇌에서 방출되는 전기 신호를 사용하여 로봇을 제어할 수 있는 기계 학습 프로그램을 개발했다.(사진=EPFL)

스위스 EPFL 연구팀이 인간의 두뇌에 연결하고 로봇을 명령하는 데 사용할 수 있는 기계 학습 프로그램을 개발했다. 이 프로그램은 뇌의 전기 신호를 기반으로 로봇의 움직임을 제어할 수 있다. 이 발명으로 사지마비 환자들이 스스로 더 많은 일상 활동을 수행할 수 있게 될 전망이다.

사지마비 환자는 자신의 몸에 갇혀 말을 하거나 약간의 움직임도 할 수 없다. 연구원들은 이러한 환자들이 일부 작업을 스스로 수행하는 데 도움이 될 수 있는 시스템을 개발하기 위해 수년 동안 노력해 왔다. EPFL의 학습 알고리즘 및 시스템 연구소장인 오드 빌라드(Aude Billard) 교수에 따르면 척수 손상을 입은 사람들은 종종 영구적인 신경학적 결함과 심각한 운동 장애를 경험하여 물건을 잡는 것과 같은 가장 단순한 작업조차 수행하지 못하게 된다. 빌라드는 “로봇이 대신 작업을 실행할 수 있기 때문에 로봇의 도움은 이 사람들이 잃어버린 손재주를 회복하는 데 도움이 될 수 있다"고 말했다.

연구팀은 환자의 뇌에서 방출되는 전기 신호를 사용하여 로봇을 제어할 수 있는 컴퓨터 프로그램을 개발했다. 음성 제어 또는 터치 기능이 필요하지 않다. 환자는 생각만으로 로봇을 움직일 수 있다. 

시스템을 개발하기 위해 연구원들은 몇 년 전에 개발된 로봇 팔을 이용했다. 이 팔은 오른쪽에서 왼쪽으로 앞뒤로 움직일 수 있고 앞에 놓인 물건들을 재배치하고 경로에 있는 물건을 피해 다닐 수 있다. 빌라드 교수는 "우리 연구에서 우리는 장애물을 피하도록 로봇을 프로그래밍했지만 컵에 물을 채우거나 물건을 밀거나 당기는 것과 같은 다른 종류의 작업을 선택할 수도 있다."라고 말한다.

연구원들은 로봇이 일부 장애물에 대해 너무 멀거나 너무 가깝게 피해 가는 경향이 있어 좀 더 정확하게 장애물을 피할 수 있도록 로봇의 메커니즘을 개선했다. 로봇의 목표는 마비된 환자를 돕는 것이었으므로 사용자가 말하거나 움직일 필요 없이 로봇과 의사소통할 수 있어야 했다.

알고리즘은 뇌파도(EEG) 스캔을 하기 위한 전극이 장착된 헤드캡에 연결되었다.(사진=EPFL)
알고리즘은 뇌파도(EEG) 스캔을 하기 위한 전극이 장착된 헤드캡에 연결되었다.(사진=EPFL)

환자의 생각에만 기반하여 로봇의 움직임을 제어할 수 있는 알고리즘을 개발해야 했다. 알고리즘은 환자의 뇌 활동에 대한 뇌파도(EEG) 스캔을 하기 위한 전극이 장착된 헤드캡에 연결됐다. 시스템을 사용하려면 환자가 로봇을 바라보기만 하면 된다. 로봇이 잘못된 동작을 하면 환자의 뇌는 마치 환자가 "아니요, 그렇지 않습니다"라고 말하는 것처럼 명확하게 식별할 수 있는 신호를 통해 ‘오류 메시지’를 내보낸다. 로봇은 자신이 하고 있는 일이 잘못되었음을 인지하지만 처음에는 정확한 이유를 알지 못한다. 

예를 들어 물건에 너무 가깝거나 너무 멀어졌을 경우, 먼저 로봇이 정답을 찾을 수 있도록 알고리즘에 오류 메시지를 입력하고, 역 강화 학습(inverse reinforcement learning) 접근 방식을 사용하여 환자가 원하는 것과 로봇이 취해야 하는 조치를 파악한다. 이것은 로봇이 어떤 것이 올바른지 확인하기 위해 다양한 움직임을 시도하는 시행착오 과정을 통해 수행된다. 이 프로세스는 매우 빠르게 진행된다. 로봇이 올바른 반응을 파악하고 환자의 희망 사항을 실행하는데 보통 3~5번의 시도만 필요하다. 

강화 학습을 사용하여 환자가 원하는 것과 로봇이 취해야 하는 조치를 파악한다.(사진=셔터스톡)
강화 학습을 사용하여 환자가 원하는 것과 로봇이 취해야 하는 조치를 파악한다.(사진=셔터스톡)

로봇의 AI 프로그램은 빠르게 학습할 수 있지만 실수할 때 이를 알려야 행동을 수정할 수 있다. 함께 연구에 참여한 밀란(José del R. Millán) 교수는 "오류 신호에 대한 감지 기술을 개발하는 것은 우리가 직면한 가장 큰 기술적 과제 중 하나였다"라고 말했다. 밀란 교수는 "우리 연구에서 특히 어려웠던 것은 환자의 뇌 활동을 로봇의 제어 시스템에 연결하는 것이었다"고 덧붙였다.

다시 말해서, 로봇의 제어 시스템에 대한 뇌 활동, 즉 환자의 뇌 신호를 로봇이 수행하는 행동으로 '번역'하는 것이다. 연구원들은 주어진 뇌 신호를 특정 작업에 연결하기 위해 기계 학습을 사용했다. 그런 다음 로봇이 환자가 염두에 두고 있는 것을 수행하도록 개별 로봇 제어와 작업을 연결했다.

연구원들은 궁극적으로 그들의 알고리즘을 사용하여 휠체어를 제어하기를 희망한다. 빌라드 교수는 "현재로서는 아직 극복해야 할 엔지니어링 장애물이 많이 있다. 그리고 휠체어는 환자와 로봇이 모두 움직이기 때문에 완전히 새로운 도전 과제를 제시한다"고 말했다. 연구팀은 또한 여러 종류의 신호를 읽을 수 있고 뇌로 부터 수신한 데이터와 시각 운동 기능(시각 정보를 해석해서 운동 행동으로 반응하는 기능)의 데이터를 조정할 수 있도록 로봇에 알고리즘을 적용할 계획이다.

AI타임스 박찬 위원 cpark@aitimes.com

[관련기사]"다중시설도 문제없어요" 기계연, AI로 방역하는 로봇 소개

[관련기사]장성 상무대 육군체력단련장에 로봇캐디 등장

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지