서버 시장 인텔 CPU·엔비디아 GPU 90% 독점…다양성 필요해
인텔 하바나·AWS 자체 칩으로 딥러닝 훈련용 GPU 성능↑
EC2 G4ad 인스턴스에 AMD 에픽 CPU와 라데온 프로 GPU 채택

앤디 제시 AWS CEO가 리인벤트 키노트 발표를 하고 있다. (사진=AWS)
앤디 제시 AWS CEO가 리인벤트 키노트 발표를 하고 있다. (사진=AWS)

아마존웹서비스(AWS)가 개최한 AWS 리인벤트(AWS re:Invent)에서 CPU는 인텔 제온, GPU 기반 AI 가속기는 엔비디아라는 공식을 벗어난 새로운 선택을 해 눈길을 끌고 있다.

딥러닝 훈련용 GPU 솔루션은 AWS가 인텔과 AWS 자체 솔루션을 채택하며 엔비디아 독주를 제어할 가능성이 커졌다. 또 추론용 GPU에 AMD GPU를 채택하며 AMD CPU를 함께 탑재해 인텔 제온의 CPU 독점도 어느 정도 막을 수 있을 것으로 보인다.

다만 업계 일부에서는 인텔과 엔비디아가 가진 CPU·GPU 시장의 인프라를 새로운 솔루션이 당장 극복하기는 어려울 것으로 지적하고 있다.

앤디 재시 AWS CEO는 1일(현지시간) 열린 리인벤트 행사에서 EC2 인스턴스에 인텔 하바나랩스 가우디 가속기를 채택했으며 AWS가 자체 개발한 머신러닝(ML) 훈련용 침 트레이니엄(Trainium) 칩을 함께 공개했다.

하바나 랩스 가우드 AI 가속기 칩 (사진=인텔)
하바나 랩스 가우드 AI 가속기 칩 (사진=인텔)

◆ AWS EC2 인스턴스에 인텔 하바나랩스 가우디 가속기 채택

AWS는 하바나랩스 가우디 가속기가 가장 성능이 좋은 GPU 인스턴스보다 40% 더 높은 가격 대비 성능을 약속한다고 전했다.

가우디 가속기는 자연어 처리, 객체 감지, 머신 러닝 훈련, 분류, 추천, 개인화 등을 포함하는 워크로드에 대한 딥 러닝 모델을 훈련하기 위해 특별히 설계됐다.

데이비드 다한 인텔 하바나랩스 CEO는 “인텔은 AWS가 곧 있을 AWS EC2의 트레이닝을 위해 하바나 가우디 프로세서를 선택했다는 점에 자랑스럽다”며 “하바나 랩스 팀은 AWS와의 지속적인 협력을 통해 고객에 지속성과 성능 개선을 지원할 수 있는 로드맵을 제공할 것”이라고 밝혔다.

앤디 재시는 AWS와 인텔의 제휴를 통해 새로운 가우디 기반의 아마존 EC2 인스턴스가 2021년 상반기에 제공될 것이라고 말했다.

재시는 "텐서플로뿐만 아니라 파이토치와 같은 모든 메인 머신러닝 프레임워크와 연동할 것"이라며 "가격 대비 성능의 발전과 최신 머신러닝 훈련을 지속적으로 지원할 것"이라고 말했다. 

각각의 EC2 ML 인스턴스에는 최대 8개의 가우디 가속기가 탑재된다.

인텔은 AI 전략 고도화와 클라우드, 데이터센터용 AI 가속기 포트폴리오를 강화하기 위해 지난해 하바나 랩스를 인수했다. 인텔은 이를 통해 고객과 전체 생태계가 데이터의 잠재력을 발휘하도록 돕기 위해 CPU, GPU, FPGA 등에 걸쳐 아키텍처가 통합된 XPU 제공 회사로 변화를 시도하고 있다.

레미 엘 우아잔 인텔 데이터 플랫폼 그룹 최고전략책임자(CSO)는 “인텔의 포트폴리오는 인공지능이 하나의 솔루션으로 해결가능한 컴퓨팅 과제가 아니라는 점을 반영한다”며 “클라우드 제공자들은 인공지능 추론 워크로드를 진행하기 위해 인텔 제온 프로세서에 내장된 인공지능 성능을 활용하고 있다.

이와 더불어 인텔은 하바나로 인공지능 모델 훈련 비용을 규모에 맞게 줄일 수 있게 돼 빠르게 성장하는 시장에서도 설득력 있고 경쟁력 있는 대안을 제시할 수 있게 됐다”고 말했다.

앤디 제시 CEO가 리인벤트에서 AWS가 자체 개발한 트레이니엄 딥러닝용 칩을 공개했다. (사진=AWS 리인벤트 행사 캡처)
앤디 제시 CEO가 리인벤트에서 AWS가 자체 개발한 트레이니엄 딥러닝용 칩을 공개했다. (사진=AWS 리인벤트 행사 캡처)

◆ "트레이니엄 하바나보다 비용 효율적"

앤디 재시 AWS CEO는 가우디 가속기 채택과 함께 "트레이니엄은 하바나 칩보다 훨씬 비용 효율적이"이라며 자체 개발 칩을 공개했다. 그는 AWS 트레이니엄 칩은 AWS가 클라우드에서 가장 비용 효율적인 교육을 제공하기 위해 맞춤 설계한 ML칩이라고 강조했다.

AWS에 따르면 트레이니엄은 클라우드 내 ML용 컴퓨팅 파워 중 가장 많은 TFLOPS(테라플롭스) 성능을 제공하며 보다 광범위한 ML 애플리케이션을 가능하게 한다. 

트레이니엄은 그 이름에 걸맞게 딥러닝 훈련(Training)용 칩이다. 이미지 분류, 의미 검색, 번역, 음성 인식, 자연 언어 처리 및 권장 엔진을 포함한 애플리케이션의 딥러닝 교육 작업 부하에 최적화됐다.

앤디 재시는 "인퍼런시아(Inferentia) 고객들이 사용하는 것과 동일한 AWS 뉴런 SDK를 사용하게 될 것"이라며 "추론을 위해 인퍼런시아를 사용하면 훈련용 트레이니엄도 쉽게 적용할 수 있을 것"이라고 설명했다. 그는 2021년 하반기에는 AWS EC2 인스턴스로도 자사 솔루션을 모두 이용할 수 있을 것이라고 전했다.

서버용 2세대 AMD 에픽 프로세서 (사진=AMD)
서버용 2세대 AMD 에픽 프로세서 (사진=AMD)

◆ AMD, AWS EC2 G4ad 인스턴스에 CPU·GPU 탑재

3일 AMD는 AWS EC2 G4ad 인스턴스에 AMD 에픽(EPYC) CPU와 라데온 프로(Radeon Pro) GPU를 모두 탑재했다고 밝혔다.

아마존 EC2 G4ad는 그래픽 집중적 워크로드에 최적화된 성능을 제공하는 인스턴스로, 이를 계기로 AMD는 전 세계 20개 지역에서 제공되는 총 8개의 아마존 EC2 인스턴스를 지원하게 됐다고 AMD 측은 설명했다.
 
데이비드 브라운 AWS EC2 담당 부사장은 “AWS는 AMD EPYC CPU와 라데온 Pro GPU의 우수한 성능을 바탕으로, 높은 가성비의 그래픽에 최적화된 새로운 인스턴스를 개발해냈다”며, “AMD와의 지속적인 협업을 통해 그래픽 집중적 애플리케이션을 위한 업계 최고의 솔루션인 아마존 EC2 G4ad 인스턴스를 제공할 수 있게 되어 기쁘게 생각한다”고 밝혔다.

AWS는 이번 선택으로 전통적인 '인텔 제온(Xeon) CPU'와 '엔비디아 GPU'의 조합을 벗어나 더 다양한 서버 구축 가능성을 보였다. 인텔 CPU와 엔비디아 GPU는 전 세계 서버 시장에서 90% 이상을 각각 점유하고 있는 절대 강자다.

실제로 AWS의 EC2 G4 인스턴스만 보더라도 엔비디아 T4 가속기와 인텔 캐스케이드레이크 CPU를 탑재한 G4dn과 앞서 언급한 AMD CPU·GPU를 사용한 G4ad로 구성됐다. 

또 11월 공개한 AWS의 새로운 EC2 P4d 인스턴스에는 엔비디아 A100 텐서코어(Tensor Core) GPU를 탑재했다. P4d 인스턴스는 8개의 엔비디아 A100 GPU로 구동된다.

AWS는 10년 전 엔비디아 M2050과 함께 GPU 인스턴스를 출시했다. 당시는 AI와 딥러닝이 부상하기 전으로, 쿠다(CUDA) 기반 애플리케이션은 주로 과학 시뮬레이션을 가속화하는데 사용됐다. 이후 AWS는 K80, K520, M60, V100, T4를 탑재한 GPU 인스턴스를 추가했다.

엔비디아 A100 GPU(사진=엔비디아)
엔비디아 A100 GPU(사진=엔비디아)

◆리인벤트 이후, 인텔·엔비디아 독주 체제 변할까?

이번 리인벤트 이후 전세계 엔비디아 독주 체제의 서버용 GPU 시장은 일부 변할 것으로 전망된다. 대부분의 AI 모델 엔비디아 쿠다(CUDA) 플랫폼 기반으로 이뤄져 왔고, 소프트웨어 개발자들도 쿠다에 익숙해 당장의 큰 변화는 어렵다. 

다만 인텔과 AWS의 새로운 솔루션이 견고한 엔비디아 GPU 생태계에 일부 균열을 줄 것으로 업계 관계자들은 보고 있다. 

일부 전문가들은 서버용 CPU 시장에서 인텔의 독점은 엔비디아보다 깨기 어려울 것으로 보고 있다. 인텔이 CPU, GPU, FPGA를 포함한 모든 프로세서를 통합한 XPU 전략으로 AI 시장을 공략하며 생태계를 넓혀가고 있기 때문이다. 

업계의 한 관계자는 "AMD가 PC시장에서는 경쟁력이 있을 수 있지만, 소프트웨서 지원 없이 단순한 외부 오픈소스에 의존해서는 맞춤형 서버 시장에서는 경쟁력을 얻기 힘들다"며, "인텔은 최근 원API 전략으로 XPU를 위한 소프트웨어 지원을 통합했다. 원API도 오픈소스지만 인텔은 엔비디아의 쿠다를 극복하기 위해 원API 생태계에 적극적인 지원을 아끼지 않을 것"이라고 분석했다.

AI 반도체의 다양성은 업계에는 희소식일 수밖에 없다. AI칩 메이커가 늘어날수록  일부 업체의 독과점에서 발생하는 비용과 성능 문제를 극복할 수 있기 때문이다.

AI타임스 양대규 기자 yangdae@aitimes.com

[관련기사] AMD '에픽'·인텔 '제온', 데이터센터 CPU의 진화

[관련기사] 3분기 CPU(x86) 점유율, '인텔' 77.6%·'AMD' 22.4% 

 

키워드 관련기사
  • 새로운 슈퍼컴 성능평가 뜬다···AI 훈련속도 1위 기종은?
  • AMD, 96코어 에픽 CPU 내놓을까?…GPU를 따라가는 CPU?
  • [AI칩러닝] AI의 핵심, GPU… 딥러닝의 유행을 불러오다 ②