클라우드 및 데이터센터 고객 위한 확장성과 효율성 지원

나빈 라오(Naveen Rao) 인텔 부사장 겸 인공지능 제품 그룹 총괄 (사진출처 = 인텔)
나빈 라오(Naveen Rao) 인텔 부사장 겸 인공지능 제품 그룹 총괄 (사진출처 = 인텔)

(AI타임스=이혜진 기자) 인텔이 미국 샌프란시스코에서 열린 ‘AI 서밋 2019’에서 클라우드에서 엣지까지 AI 시스템 개발 및 구현을 가속화하도록 설계된 새로운 제품 업데이트를 공개하고 차세대 AI 혁신을 선보였다고 밝혔다.

이 날 시연한 인텔 너바나 뉴럴 네트워크 프로세서(NNP)는 트레이닝(NNP-T1000)과 추론(NNP-I1000)을 위한 제품으로, 클라우드 및 데이터센터 고객을 위한 확장성과 효율성을 지원하는 인텔 첫 AI 전용 주문형 반도체(ASIC) 제품이다.

또한 인텔은 엣지 미디어, 컴퓨터 비전 및 추론 응용 프로그램을 위한 차세대 인텔 모비디우스 미리어드 비전 프로세싱 유닛(VPU)을 공개했다.

나빈 라오(Naveen Rao) 인텔 부사장은 “AI의 다음 단계에서 우리는 컴퓨팅 하드웨어 및 메모리의 한계에 도달하고 있다”라며 “AI의 놀라운 발전을 지속하려면 인텔 너바나 NNP 및 모비디우스 미리어드 VPU와 같은 전용 하드웨어가 필요하다. 보다 앞선 시스템 수준의 AI를 사용하면 데이터를 정보로, 정보를 지식으로 변환하는데 큰 도움이 될 것이다”라고 말했다.

현재 생산되어 고객에게 제공 중인 새로운 인텔 너바나 NNP는 시스템 수준 AI 접근 방식의 일부로, 최대한의 활용을 위해 개방형 구성 요소 및 딥 러닝 프레임 워크 통합으로 개발된 완전한 소프트웨어 스택을 제공한다.

인텔 너바나 NNP-T는 컴퓨팅, 통신, 메모리 간의 최적의 균형을 유지해 소규모 클러스터에서 최대 포드 슈퍼컴퓨터에 이르기까지 선형에 가까운, 에너지 효율적인 확장성을 제공한다. 인텔 너바나 NNP-I는 전력과 예산을 효율적으로 사용하고 유연한 폼팩터를 통해 강력한 다중 모드 추론을 실제 구현하는데 이상적이다. 두 제품 모두 바이두 및 페이스북과 같은 최첨단 AI 고객의 AI 처리 요구에 맞게 개발되었다.

미샤 스메랸스키(Misha Smelyanskiy) 페이스북 AI 시스템 공동 설계 부문 디렉터는 “인텔과 협력해 인텔 NNP-I를 기반으로 더욱 빠르고 효율적인 추론 성능을 구현하고, NNP-I에 최첨단 딥 러닝 컴파일러 Glow를 위한 지원을 확장할 수 있어 매우 기대된다”라고 말했다.

한편 2020년 상반기에 출시될 차세대 인텔 모비디우스 VPU는 특별하고 고효율적인 아키텍처 기술을 통합해 경쟁사 프로세서보다 최고 6배 우수한 전력 효율성과 이전 세대보다 10배 이상 높은 추론 성능을 제공할 것으로 예상된다.

 

【에이아이타임스 aitimes 에이아이타임즈】