사람의 손동작 그림자만으로도 이를 감지해 사람과 소통할 수 있는 소프트 로봇이 나왔다. 미국 코넬대 연구진이 접촉각 센서 없이도 그림자 움직임을 포착해 사람과 상호작용할 수 있는 ‘섀도 센스(Shadow Sense)’ 기술을 개발했다고 지난 11일(현지시간) IT 전문매체 TNW 등 외신이 보도했다.
이번 연구는 코넬대 ‘인간‧로봇 협업‧동반자관계 연구소’의 최신 프로젝트다. 비상 상황 시 사람들을 안전한 곳으로 대피시키는 공기 주입식 팽창형 로봇을 개발하기 위해 착수됐다. 이같은 로봇은 극한의 상황과 환경에서 인간과 의사소통할 수 있어야 한다. 예를 들어 소음으로 시끄럽고 연기가 가득한 건물 복도에서 사람 손의 압력을 감지해 그 사람을 안전하게 탈출시킬 수 있어야 한다.
그러나 손가락 끝이나 피부에 접촉한 상태를 감지하는 '접촉각 센서'를 사용할 경우 로봇의 무게가 증가하고 배선이 복잡해지는 것은 물론, 변형 가능한 로봇 피부에 삽입하기 어렵다는 한계가 있다. 이에 연구진은 로봇에 수많은 접촉각 센서를 설치하는 대신 시각을 이용해 저비용으로 촉각을 측정할 수 있는 방법을 고안한 것이다.
(영상=코넬대 유튜브).
'섀도 센스' 기술은 로봇 내부에 장착된 USB 카메라를 통해 로봇 피부 위에 나타난 손동작의 그림자 움직임을 포착해 이를 기계학습(ML) 소프트웨어로 분류한다. 이번 연구논문의 주요 저자인 유한 후 박사과정 연구원은 “로봇 내부에 카메라를 설치해 그림자 이미지만 봐도 그 사람이 로봇을 어떻게 만지고 있는지, 또 그 사람의 의도가 무엇인지를 유추해낼 수 있다”고 설명했다. 이어 “현재 터치 제스처를 감지할 수 있는 소셜 로봇이 많지 않기 때문에 더욱 잠재력이 큰 기술”이라고 덧붙였다.
약 4피트(122cm) 높이의 원통형 구조인 로봇 프로토타입(시제품)은 나일론 재질의 신축성있는 부드러운 팽창형 주머니로 감싸여 있다. 로봇 피부 아래에는 노트북 컴퓨터에 연결된 USB 카메라가 있다.
연구진은 이전 훈련 데이터를 바탕으로 신경망 기반 알고리즘을 개발했다. 이를 통해 손바닥이나 두 손으로 만지기, 주먹으로 치기, 끌어안기, 가리키기, 만지지 않기 등 6가지 제스처를 구별해내는 데 성공했다.
해당 알고리즘은 테스트 결과 빛‧조명에 따라 87.5~96%의 정확도를 보였다. 특히 일광의 경우 96%로 가장 정확했다. 또 황혼과 야간에는 각각 93%, 87%의 정확도를 나타냈다.
이 로봇은 확성기를 통해 메시지를 보내는 등 특정 터치‧제스처에 반응하도록 프로그래밍도 가능하다. 또 향후 로봇을 감싸고 있는 피부를 인터랙티브 스크린(interactive screen)으로 바꿀 수도 있다. 연구진은 데이터를 충분히 수집하게 되면 필요한 로봇 작업에 맞게끔 맞춤형으로 훨씬 광범위한 상호작용 어휘를 인식할 수 있도록 로봇을 훈련시킬 수 있다고 전했다.
꼭 로봇 형태일 필요도 없다. 연구진은 풍선과 같은 다른 재료에 섀도 센스 기술을 접목해 터치 감지 장치로 변신시킬 수 있다고 밝혔다. 그만큼 다양한 영역에서 활용 가능하다는 이야기다.
특히 이 기술은 프라이버시 문제에서 좀 더 자유로울 수 있다는 장점이 있다. 섀도 센스 기술을 적용한 로봇은 사용자를 그림자 형태로만 볼 수 있기 때문에 사용자의 얼굴 등 고화질 이미지가 없어도 행동을 감지할 수 있다는 게 연구진의 설명이다.
AI타임스 윤영주 기자 yyj0511@aitimes.com
