헤드셋을 통해 원격 조정 중인 휴머노이드 로봇 (사진=엔비디아)
헤드셋을 통해 원격 조정 중인 휴머노이드 로봇 (사진=엔비디아)

엔비디아가 휴머노이드 로봇 개발 가속화를 위해 계속 관련 기술을 발표하고 있다. 지난 3월 'GTC'에서 휴머노이드용 대형언어모델(LMM) '프로젝트 그루트' 등 굵직한 발표를 내놓은 데 이어, '시그래프 2024'에서도 개발자를 위한 주요 솔루션과 플랫폼을 선보였다.

벤처비트는 29일(현지시간) 엔비디아가 시그래프 2024에서 휴머노이드 로봇의 발전을 촉진하기 위해 새로운 개발 서비스 및 플랫폼을 출시했다고 보도했다. 

젠슨 황 엔비디아 CEO는 “AI의 차세대 물결은 로봇공학이며, 가장 흥미로운 개발 중 하나는 휴머노이드 로봇”이라며 “우리는 전 세계 휴머노이드 개발자와 기업이 각자의 필요에 가장 적합한 플랫폼, 가속 라이브러리, AI 모델을 사용할 수 있도록 전체 엔비디아 로봇 스택을 발전시키고 있다"라고 강조했다.

이날 공개한 내용에는 ▲로봇 시뮬레이션 및 학습을 위한 새로운 엔비디아 'NIM' 마이크로서비스 및 프레임워크 ▲다단계 로봇 워크로드를 실행하기 위한 '오스모(OSMO)' 오케스트레이션 서비스 ▲개발자가 소규모 인간 데모 데이터를 사용해 로봇을 훈련할 수 있는 AI 및 시뮬레이션 지원 원격 운영 워크플로우 등이 포함된다.

휴머노이드 로봇을 위한 기초 모델 훈련에는 엄청난 양의 현실 세계 데이터가 필요하다. 원격 조종을 사용해 데이터를 수집하는 방법이 전통적이지만, 비용이 많이 들고 시간이 오래 걸리는 것이 단점이다.

따라서 엔비디아는 AI 및 옴니버스 지원 원격 조종 참조 워크플로우를 통해 AI 개발자가 최소한의 원격으로 캡처된 인간 시연으로부터 방대한 양의 합성 동작 및 인식 데이터를 생성할 수 있도록 했다.

먼저 개발자들은 애플 비전 프로를 사용하여 소수의 원격 조종 시연을 캡처한 다음, 녹화 데이터를 '아이작 심(Isaac Sim)'에서 시뮬레이션하고 '미믹젠(MimicGen)' NIM 마이크로서비스를 사용해 합성 데이터셋을 생성한다.

이어 실제 및 합성 데이터를 사용해 프로젝트 그루트 모델을 훈련하는 식으로 시간을 절약하고 비용을 줄일 수 있다.

그다음 '아이작 랩(Isaac Lab)'이라는 로봇 학습 프레임워크에서 '로보카사(Robocasa)' NIM 마이크로서비스를 사용해 로봇 모델을 미세조정할 실제 경험치를 생성한다. 워크플로우 전반에 걸쳐 엔비디아 오스모는 컴퓨팅 작업을 다양한 리소스에 원활하게 할당, 기존 몇주가 걸리던 시간을 단축해 준다.

또 휴머노이드 로봇 개발을 용이하게 하기 위해  ▲모델을 훈련하기 위한 AI 슈퍼컴퓨터 ▲로봇이 시뮬레이션된 세계에서 기술을 학습하고 향상할 수 있는 옴니버스 기반 아이작 심 ▲모델을 실행하기 위한 젯슨 토르 휴머노이드 로봇 컴퓨터 등 세 가지 컴퓨팅 플랫폼을 제공한다. 개발자들은 특정 요구에 맞게 모든 플랫폼 또는 일부 플랫폼에 접근하고 사용할 수 있다.

개발자들은 새로운 엔비디아 휴머노이드 로봇 개발자 프로그램에 참여, 새로운 제공 제품뿐만 아니라 최신 버전의 엔비디아 아이작 심, 엔비디아 아이작 랩, 제트슨 토르 및 프로젝트 그루트 범용 휴머노이드 기반 모델에 조기 접근할 수 있다. 현재 1X 테크놀로지스, 보스턴 다이내믹스, 필드 AI, 피규어 AI, 푸리에, 갈봇, 림스 다이나믹스, 멘티 로보틱스, 뉴라 로보틱스, 로보테라, 스킬드 AI가 이 프로그램에 참여하고 있다.

현재는 엔비디아 휴머노이드 로봇 개발자 프로그램에 가입해 엔비디아 오스모와 아이작 랩에 액세스할 수 있으며, 곧 엔비디아 NIM 마이크로서비스에 액세스할 수 있다고 밝혔다.

박찬 기자 cpark@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지