AWS, 알렉사 머신러닝 추론에 자사 '인퍼런시아(Inferentia)' 사용
엔비디아 칩 대비 비용 30%↓·속도25%↑
안면인식 서비스도 인퍼런시아 채택

아마존 AI 스피커 알렉사 (사진= Pexels, Anete Lusina)
아마존 AI 스피커 알렉사 (사진= Pexels, Anete Lusina)

아마존웹서비스(AWS)가 음성과 안면 인식 솔루션에 엔비디아 대신 자사의 추론용 인공지능(AI) 칩을 도입한다. 

이에 AWS는 비싼 엔비디아 AI 가속기에서 벗어나 자사에서 생산한 칩을 바탕으로 빠른 AI 솔루션 제작이 가능해졌다. 

벤처비트는 아마존이 알렉사의 음성인식 컴퓨팅 일부를 자체 제작 칩으로 전환할 계획이라고 13일(현지시간)보도했다.

AWS는 알렉사 추론용 인퍼런시아 칩으로 바꾸며 30% 저렴한 비용으로 속도 측정인 대기 시간이 25% 향상됐다고 밝혔다.

아마존 에코와 같은 스마트 스피커 사용자들이 알렉사에 질문하면, 이 질문은 아마존 데이터 센터 중 한 곳으로 보내진다. 이후 여러 단계 처리를 통해 대답을 만들어내고 알렉사 소리로 변환되는 텍스트 형식으로 전송된다.

원래 아마존은 엔비디아 칩을 이용해 이 단계를 처리했다. 이제는 자체 개발한 인퍼런시아 AI 가속기가 이 역할을 대신한다. 

인퍼런시아는 2018년 처음 발표됐다. 이는 텍스트 음성 변환이나 이미지 인식 등 대량의 머신러닝 작업에 속도를 내기 위해 맞춤형으로 설계됐다.

AWS가 추론용 자체 칩을 사용하면서 엔비디아는 대형 고객 하나를 잃게 됐다. AWS, 마이크로소프트 애저, 구글 클라우드, 알리바바와 같은 클라우드 컴퓨팅 고객들은 엔비디아와 인텔 등 AI칩 생산업체의 가장 큰 고객이다.

추론이 아닌 훈련용 가속기에는 엔비디아 GPU를 지속적으로 사용할 전망이다. 실제로 최근 AWS는 머신러닝과 HPC(고성능컴퓨팅)를 위해 마련한 EC2 P4d 인스턴스에 8개의 엔비디아 A100 GPU를 채택한 바 있다.

AWS는 클라우드 기반 안면인식 서비스인 '리코그니션(Rekognition)'에도 자체 개발한 인퍼런시아 칩을 채택했다. 

벤처비트에 따르면, AWS가 기존 안면인식 서비스용 칩이 어떤 것인지, 자체 칩으로 얼마나 많은 작업을 전환했는지는 밝히지 않았다.

[관련기사] 삼성 3년 만에 AI비서 빅스비 새 호출명 ‘새미야’ 추가

[관련기사] 엔비디아 A100 GPU, AWS 최신 머신러닝·HPC용 서버에 탑재

키워드 관련기사
  • 'AI 대부' 요슈아 벤지오·얀 르쿤은 삼성 AI 포럼에서 무슨 말을 했나?
  • KAIST, 차세대 AI 기술을 조망하다
  • 화웨이 AI 전략의 핵심은 '엣지-클라우드 콜라보'