(사진=구글)
(사진=구글)

구글이 ‘제미나이’에 실시간 영상 분석과 화면 공유 기능을 본격적으로 배포하기 시작했다. 이로 인해 텍스트 기반 검색 방식에서 벗어나, 멀티모달 기능을 활용한 새로운 인공지능(AI) 검색 경험이 가능해질 전망이다.

나인투파이브구글은 22일(현지시간) 구글이 이달 초 MWC에서 예고한 대로 제미나이 라이브의 새로운 기능 ▲실시간 영상 분석 ▲화면 공유를 출시했다고 보도했다. 

이는 지난해 5월 휴대폰을 통해 카메라로 사물이나 주변을 비추고 음성으로 대화하고 관련 정보를 제공하는 멀티모달 AI 비서 ‘프로젝트 아스트라’를 발표한 지 약 10개월 만에 출시한 것이다.

하지만 정식 발표에 이은 대규모 동시 출시가 아니라, 일부 사용자부터 시작해 점차 배포를 넓히는 방식이다. 실제로 한 레딧 사용자가 샤오미 휴대폰에서 기능이 활성화된 것을 확인하고 이 사실을 소셜 미디어에 올리며 소식이 알려졌다.

먼저 실시간 영상 분석 기능은 사용자가 휴대폰 카메라를 이용해 영상을 촬영하면서 질문하면, AI가 이를 실시간으로 분석하여 즉각적인 답변을 제공한다. 여행 중 특정 장소를 촬영하며 “이곳의 역사적 배경은 무엇인가”라고 물으면, 제미나이가 해당 장소에 대한 정보를 제공하는 식이다.

화면 공유 기능을 활용하면 사용자가 웹 페이지, 문서, 앱 화면 등을 AI와 공유한 뒤 질문할 수 있다. 사용자가 청바지 쇼핑 웹 페이지를 공유하고 “이 청바지와 어울리는 다른 옷은 무엇일까”라고 물으면, AI가 실시간 분석으로 스타일을 추천한다.

이 기능은 우선 유료 사용자에게 제공된다. 안드로이드 ‘구글 원 AI 프리미엄’ 플랜 가입자 중 월 20달러의 제미나이 어드밴스드 사용자가 사용할 수 있다.

박찬 기자 cpark@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지