순다르 피차이 구글 최고경영자(CEO)가 지난 18일(현지시간) 구글 I/O에서 기조연설을 하고 있다. 전 세계 IT 업계 종사자들과 개발자들의 이목이 집중되는 구글의 개발자 컨퍼런스 I/O는 코로나19 팬데믹 여파로 지난해는 중지, 올해는 온라인으로 개최됐다. 2008년 개최 이래 온라인 I/O는 처음이다. (사진=blog.google.com).
순다르 피차이 구글 최고경영자(CEO)가 지난 18일(현지시간) 구글 I/O에서 기조연설을 하고 있다. 전 세계 IT 업계 종사자들과 개발자들의 이목이 집중되는 구글의 개발자 컨퍼런스 I/O는 코로나19 팬데믹 여파로 지난해는 중지, 올해는 온라인으로 개최됐다. 2008년 개최 이래 온라인 I/O는 처음이다. (사진=blog.google.com).

구글이 지난 18일(현지시간)부터 3일간 개발자 컨퍼런스 I/O를 온라인으로 개최했다. 이번 I/O에서 구글은 ‘보다 더 진보하고 향상된 AI 기술’로 안드로이드 운영체제부터 클라우드 플랫폼에 이르기까지 다양한 분야 내 서비스를 공개했다.

I/O 첫째 날인 18일, 전 세계 IT 산업 종사자들이 가장 주목한 것은 관리형 클라우드 서비스 ‘버텍스AI(Vertex AI)’ 출시다. 이날 열린 온라인 기조연설에서 구글은 버텍스AI 탄생 계기에 대해 “데이터 과학자들이 AI 모델 개발과 실험에서 시간이 지연되는 단점을 개선하기 위해서”라고 설명했다.

완벽하게 관리하는 AI 플랫폼 ‘버텍스AI’

버텍스AI는 AI 모델을 훈련할 때 기존보다 80% 가까이 적은 코드 라인만 필요하기 때문에 기업들이 모델의 배치와 유지보수를 가속화할 수 있도록 설계됐다. 최근 AI 기술업체 얼레이션이 발표한 보고서에 따르면 응답자 중 87%가 자사 조직이 AI를 구현하지 못한 이유로 데이터 품질 문제를 꼽았다. AI솔루션 조립 과정에서 방대한 용량(무게) 탓에 모델 개발이나 실험 시간이 지연되는 등 여러 가지 문제가 발생할 수 있는 것이다.

이러한 단점을 해결하기 위해 버텍스AI는 통합 UI와 API를 통해 AI용 구글 클라우드 서비스를 결합한다. 버텍스AI를 사용하는 고객은 단일 환경에서 머신러닝 모델 구축뿐만 아니라 훈련과 배치를 한번에 진행할 수 있다. 또 모델을 실험에서 생산으로 이동시키는 사이 패턴에 이상을 발견하거나 미리 오류를 예측할 수 있다.

버텍스AI는 구글에서 내부적으로 사용되는 MLOps 툴킷에 대한 액세스도 제공한다. 이외 주요 기능으로 실험 속도를 높이는 것이 목표인 ▲버텍스 비지어, 실무자가 머신러닝 기능을 서비스·공유·재사용하도록 지원하는 ▲버텍스 피처 스토어, 모델 선택에 도움이 되는 ▲버텍스 실험 등이 있다. 또한 셀프 서비스 모델 유지와 반복성을 지원하는 ▲정점 연속 모니터링과 ▲정점 파이프라인이 있다.

크레이그 와일리 구글 클라우드 AI 제품 관리 책임자는 기술매체 벤처비트와의 인터뷰에서 버텍스AI가 고객을 돕는 네 가지 방법으로 개발됐다고 말했다. 첫째로 “고객이 버텍스AI를 통해 구축 단계인 머신러닝 속도를 높이는 것”이고 두 번째는 “고객이 사용할 수 있는 기술 가운데 구글이 최고 수준의 기능을 제공하는 것”이다.

와일리 책임자는 이어 세 번째는 “뛰어난 확장성을 갖춘 워크플로우를 제공하는 것이고 다음으로는 고객이 적절한 모델 관리와 거버넌스에 필요한 모든 것을 갖추고 있는지 확인하는 것”이라고 설명했다. 또 “궁극적으로는 최고속도를 자랑하는 버텍스AI를 통해 고객기업이 ROI(투자자본 수익률)를 높이는 것”이라고 덧붙였다.

한편, 시장조사기관 가트너는 버텍스AI 같은 관리형 서비스의 등장으로 2021년 클라우드 시장이 18.4% 성장할 것으로 전망했다. 가트너는 지난해 11월 연구에서 “기업이 모빌리티, 협업, 기타 원격 작업 기술과 인프라에 대한 투자를 늘림에 따라 퍼블릭 클라우드는 2024년까지 성장할 것”이라고 밝혔다. 또 2025년에는 MLOps의 가치만 40억달러 가까이 예상된다고 전망했다.

구글이 공개한 I/O2021 기조연설 영상. (출처=Google 공식 유튜브 채널).

차세대 대화용 AI 람다(LaMDA), I/O에서 선보여

순다르 피차이 최고경영자는(CEO)는 18일 기조연설에서 “현존하는 언어모델보다 대화의 맥락을 훨씬 잘 이해하는” 대화 어플리케이션 람다(LaMDA)를 소개했다. 피차이 CEO는 람다가 “개방형 도메인이며 어떤 주제에서도 대화할 수 있도록 설계됐다”고 말했다.

그에 따르면 람다는 아직 연구개발 중이다. 피차이는 “현재 구글은 새로운 상호작용을 탐구하기 위해 ‘내부적으로’ 람다를 사용하고 있다”고 밝혔다. 이어 “람다 개발은 아직 초기단계이기 때문에 모든 것을 제대로 하지는 못한다. 때로는 말도 안 되는 반응을 보일 수 있다”고 솔직하게 말했다.

그럼에도 불구하고 람다를 공개한 데에는 구글의 자신감이 엿보인다. 피차이 CEO 설명에 따르면 람다는 기존 대규모 언어모델과 달리 정해진 답변을 훈련하지 않는다. 때문에 더욱 인간처럼 자연스럽게 대화할 수 있다. 이를 보여주듯 피차이는 람다가 명왕성에 대한 기본 지식을 학습해 명왕성을 주제로 1인칭 시점에서 사용자와 대화하는 모습을 공개했다.

순다르 피차이CEO가 공개한 람다가 명왕성인 듯 대화하는 장면 캡처. 
순다르 피차이CEO가 공개한 람다가 명왕성인 듯 대화하는 장면 캡처. 

람다는 지난 2015년 명왕성을 탐사한 뉴호라이즌 호에 대해 “나는 뉴호라이즌에게 그동안 전혀 공개하지 않았던 내 사진을 찍어 보내기도 했어”라고 말했다.

멀티모달 MUM‥ 75개 언어로 텍스트·이미지·비디오 정보 학습

람다의 기능이 텍스트로 제한되는 점을 개선하기 위해 구글은 또 멀티모달 모델인 MUM(Multitask Unified Model, 멈)을 공개했다. 멈은 75개 이상의 언어로 동시에 학습된 언어모델이다. 텍스트 외에도 이미지, 비디오 등 다양한 형태의 정보를 동시에 이해할 수 있다.

프라바카르 래그헤이븐 구글 SVP(시니어 VP)에 따르면 멈은 사용자가 “내년 가을 후지산으로 하이킹을 가고 싶은데 어떻게 준비해야 할까”라고 질문하면 ‘준비’에 내재된 의미가 날씨 외에도 체력훈련이라는 것을 파악한다. 이후 멈은 사용자를 위해 온라인 커뮤니티나 기사, 사진, 영상 등에서 관련 주제에 대해 찾아 대화내용을 더욱 깊이있게 이끈다.

프라바카르 래그헤이븐 구글 SVP가 텍스트·이미지·비디오에서 학습해 대화를 풍부하게 이끄는 멀티모달 언어모델 멈(MUM)에 대해 설명하고 있다. (사진=blog.google.com). 
프라바카르 래그헤이븐 구글 SVP가 텍스트·이미지·비디오에서 학습해 대화를 풍부하게 이끄는 멀티모달 언어모델 멈(MUM)에 대해 설명하고 있다. (사진=blog.google.com). 

또 사용자가 등산화 사진을 보여주며 “이걸 신고 내년 가을 후지산에 가도 될까?”라고 질문하면 멈은 적절한 대답을 찾기 위해 스스로 후지산 공식 블로그를 서핑하는 등 사진 속 내용과 질의 의도를 파악할 수 있다.

순다르 피차이 CEO는 이날 “이미 구글은 람다에 이어 내부적으로 멈을 활용한 시범 프로젝트 착수했다”고 밝혔다.

AI타임스 박혜섭 기자 phs@aitimes.com

 

[관련기사] 네이버, 국내 최초 '한국어 초거대 AI 언어 모델' 검색 서비스에 상용화

[관련기사] "축하한다" 테슬라 일론 머스크 등 AI & IT업계 딥마인드 알파폴드2 칭찬 일색

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지