인텔과 구글, 마이크로소프트(MS), 메타 등 빅테크들이 데이터 센터 내 인공지능(AI) 시스템의 확장을 위한 새로운 방안을 마련하기 위해 연합했다. 이를 통해 엔비디아 의존도를 낮추겠다는 의도다.
톰스하드웨어는 30일(현지시간) AMD, 브로드컴, 시스코, 구글, HPE, 인텔, 메타, MS 등이 데이터센터급 AI와 HPC 가속기를 위한 고속-저지연 상호 연결을 가능하게 하는 산업 표준 ‘울트라 엑셀러레이터 링크(UALink)’를 개발하고 있다고 보도했다.
이에 따르면 UA링크는 AI 가속기가 효율적으로 통신할 수 있도록 하는 개방형 표준을 만드는 것이 목표다.
첫번째 UA링크 사양인 버전 1.0은 AI 컴퓨팅 포드 내에서 최대 1024개의 가속기를 저지연 네트워크로 연결할 수 있게 해준다. 이는 AMD의 '인스팅트(Instinct)' GPU나 인텔의 '가우디(Gaudi)' 등 서로 다른 가속기에 부착된 메모리 간의 직접 데이터 전송을 허용, AI 컴퓨팅의 성능과 효율성을 향상한다.
포레스트 노로드 AMD 데이터센터 솔루션 그룹 부사장은 "이번 연합은 UA링크에서 개방형, 고성능, 확장 가능한 가속기 패브릭을 만들기 위한 것으로, AI의 미래에 매우 중요하다"라며 "우리는 개방형 표준, 효율성 및 강력한 생태계 지원을 기반으로 하는 대규모 AI 및 고성능 컴퓨팅 솔루션을 만들기 위해 노력하고 있다”라고 말했다.
AMD, 브로드컴, 구글, 인텔, 메타, MS는 모두 자체 AI 가속기를 개발하고 있다. 시스코는 AI용 네트워킹 칩을 생산하고, HPE는 서버를 구축한다. 이들은 칩 인프라를 최대한 표준화하는 데 관심이 있기 때문에 UA링크 컨소시엄을 위해 협력하고 있다.
반면 UA링크 기술은 엔비디아의 'NV링크'라는 기술에 해당한다. 엔비디아는 이미 자체 기술을 보유하고 있기 때문에, UA링크 공동 개발에 참여할 이유가 없는 것으로 알려졌다.
AI 및 HPC 가속기 간의 상호 연결을 표준화하면, 시스템 OEM 및 IT 전문가, 시스템 통합업체 등은 데이터센터에서 AI 시스템을 통합하고 확장하기가 더 쉬워지게 된다.
이 표준은 개방형 생태계를 촉진하고 대규모 AI 및 HPC 솔루션의 개발을 용이하게 하는 것을 목표로 한다.
사친 카티 인텔 네트워크 및 엣지 그룹 수석 부사장은 "UA링크는 AI 컴퓨팅의 발전에 중요한 이정표"라며 "이 새로운 기술을 공동으로 이끌고 개방적이고 역동적인 AI 생태계를 만드는 데 우리의 전문 지식을 제공하게 돼 자랑스럽다”라고 말했다.
UA링크 표준의 개발 및 구현을 감독하기 위한 UA링크 컨소시엄은 3분기에 정식 출범할 예정이다.
박찬 기자 cpark@aitimes.com
