(사진=X, Runway)
(사진=X, Runway)

런웨이가 좀 더 현실감 있는 동영상 생성을 위해 정교한 카메라 워크가 가능한 기술을 추가했다. 이를 통해 패닝(panning)이나 줌 인(zoom in), 줌 아웃(zoom out)과 같은 고급 기술을 영상에 적용할 수 있게 된 것은 물론, 나아가 '세계 모델(LWM)'을 구축하는 데 도움이 될 수 있다는 설명이다.

런웨이는 1일(현지시간) X(트위터)를 통해 '젠-3 알파 터보' 모델에 '고급 카메라 컨트롤(Advanced Camera Control)'을 도입했다고 발표했다.

이 기능은 비디오를 생성할 때 피사체의 모습을 '주사위 굴리기' 식 우연에 맡기는 것이 아니라, 직접 지정할 수 있게 만든 것이다. 영상에서 보여주듯 장면과 객체의 카메라 시점을 바꾸거나, 카메라를 당기거나 밀어낼 수도 있다.

이런 카메라 컨트롤은 다른 동영상 모델에서도 등장한 바 있다. 하지만 런웨이의 방식은 기존보다 자유도가 훨씬 높을 뿐만 아니라 카메라 전환 시 가끔 발생했던 일그러짐 등의 현상을 해결했다.

고급 카메라 컨트롤에는 움직임의 방향과 강도를 설정하는 옵션이 포함돼 있다. 특히 카메라의 수평적인 움직임을 통해 피사체 전체를 비춰주는 기술은 동영상 생성 기능을 넘어 LWM 구축에도 도움이 될 수 있다는 설명이다.

크리스토발 발렌수엘라 런웨이 CEO는 X를 통해 "누가 3D라고 했나"라며 이 기술은 단순한 3D를 넘는 고급 기술이라는 점을 강조했다. 이 말은 벤처비트가 런웨이에 "3D AI 장면 생성 모델을 개발했는가"라고 질문한 것에 대한 답이다. 이에 대해 발렌수엘라 CEO는 "우리는 세계 모델을 개발하고 있다"라고 밝혔다.

또 런웨이는 이미 1년 전 물리적 세계를 시뮬레이션하도록 설계된 AI 모델을 구축한다고 언급한 바 있다. 아나스타시스 제르마니디스 공동 창립자 겸 CT는 웹 사이트에 “세계 모델은 환경의 내부 표현을 구축하고 이를 사용하여 해당 환경 내에서 미래의 이벤트를 시뮬레이션하는 AI 시스템"이라며 "그동안 세계 모델 연구는 매우 제한적이고 통제된 설정에 집중됐으며, 우리는 실제 세계와 같은 광범위한 상황과 상호 작용을 표현하고 시뮬레이션할 것"이라고 밝혔다.

한편, 이 기능은 최근 할리우드 스튜디오와 협업을 시작한 런웨이의 행보에도 도움이 될 수 있을 것으로 보인다. 현재까지 등장한 카메라 컨트롤 중에서도 런웨이의 기술은 가장 앞선 것으로 평가된다.

임대준 기자 ydj@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지