(사진=셔터스톡)
(사진=셔터스톡)

구글이 프로그래밍 유연성을 높인 기계학습 툴셋을 공개했다. 한정된 API(Application Programming Interface) 활용 범위를 모바일로 확장해 AI 기술을 응용할 수 있도록 한 프로그래밍 툴이다.

벤처비트는 23일(현지시간) 구글이 기계학습을 모바일 앱에 쉽게 통합할 수 있는 API 프로그래밍 툴 'ML 키트' 업그레이드 버전 'ML 키트 SDK'를 공개했다고 보도했다.

ML 키트는 텍스트 인식과 번역, 바코드 스캔, 객체 분류 및 추적 등 시각과 자연 언어 영역 문제를 해결하는데 유용한 툴이다.

구글은 지난 2018년 전세계 개발자 회의인 '구글 I/O 2018'에서 ML 키트를 처음 공개 및 도입했다. 구글 발표에 따르면, 현재까지 안드로이드와 iOS에서 지원하는 2만5000여개 앱이 ML 키트를 사용하고 있다.

기존 ML 키트는 구글 앱 개발 플랫폼인 '파이어베이스'와 통합해 있어 파이어베이스의 장치 내 API만 활용할 수 있었다.

이에 구글은 툴의 호환성과 유연성을 높이기 위해 기존 버전에서 ML 키트 SDK로 전환, 파이어베이스 프로젝트 없이 모든 디바이스 API를 이용할 수 있도록 했다.

이번 툴 전환으로, 구글은 개발자가 구글 플레이 서비스를 통해 구입할 수 있는 API 리스트에 얼굴 탐지 및 윤곽선 모델을 추가했다. 이에 따라 개발자는 앱 설치 공간을 줄이고 여러 앱간 모델을 재사용할 수 있다.

또 모든 ML 키트 API에 '안드로이드 제트팩' 라이프 사이클을 추가함으로써 카메라X(CameraX) 지원 라이브러리와의 통합이 이전보다 쉬워졌다. 안드로이드 제트팩은 개발자가 코드를 쉽게 사용할 수 있도록 돕는 라이브러리다.

ML 키트 조기 액세스 프로그램 일부로 새로운 API인 '독립체 추출(Entity Extraction)'과 '자세 감지(Pose Detection)'도 이용할 수 있다.

독립체 추출은 전화번호와 주소, 결제 번호 등 텍스트 항목을 식별하는 API다. 자세 감지는 손과 발 등 33개 골격 지점을 지원해 움직임을 추적한다.

이와 관련해 ML 키트는 기본 구글 모델을 맞춤형 텐서플로우 라이트(TensorFlow Lite) 모델로 교체할 수 있는 옵션을 제공하고 있다. 구글은 맞춤형 이미지 분류 모델을 지원하는 '이미지 레이블링'ㆍ‘객체 감지 및 추적’ API를 시작했으며, 향후 추가 모델 유형으로 확대할 것이라고 설명했다.

이번 업데이트는 구글이 지난해 스마트 리플라이를 포함한 새로운 ML키트용 자연어처리(NLP) 서비스를 추가한 데 따른 것이다.

구글 I/O 2019에서, ML키트는 3가지 베타버전 기능을 얻었다. 실시간 카메라 피드에서 관심 대상을 찾고 추적할 수 있는 API 한 쌍과 58개 언어를 지원하는 번역 API다.

구글은 당분간 ML키트를 A/B 테스팅과 클라우드 파이어스토어 등 파이어베이스 기능과 연동할 예정이며, 클라우드 API와 모델 구축은 파이어베이스 머신러닝을 통해 계속 이용 가능할 것이라고 설명했다. 이어 새로운 기능과 업데이트를 이용할 개발자는 SDK로 전환해야 한다고 조언했다.

 

[관련 기사] 웨이모ᆞ우버, 자율주행용 AI 신기술 공개

[관련 기사] 영국은 왜 코로나19 추적앱 자체 개발 포기했나