MS 애저 데이터센터 (사진=MS)
MS 애저 데이터센터 (사진=MS)

마이크로소프트(MS)가 자체 인공지능(AI) 칩에 이어 데이터센터에서 서버 간 데이터를 빠르게 이동시키는 네트워크 카드를 개발 중이라는 소식이다. AI 시장에서 엔비디아에 대한 의존도를 낮추고 자체 기술 생태계를 확보하려는 전략이다. 

디 인포메이션은 20일(현지시간) MS가 엔비디아 의존도를 낮추기 위해 서버들 간 데이터를 빠르게 이동시키는 새로운 서버 장치를 개발하고 있다고 정통한 소식통을 인용해 보도했다. 

이에 따르면 사티아 나델라 MS CEO는 이 네트워크 카드 개발을 위해 네트워킹 장비 개발 업체인 주니퍼 네트워크의 공동 설립자 프라딥 신두를 영입했다. 또 지난해 신두가 설립한 서버 칩 스타트업인 펀지블을 인수했다.

네트워크 카드는 서버 간 트래픽 속도를 높이도록 설계된 데이터 센터의 핵심 기술이다. 트래픽은 서버에서 연결된 데이터센터 네트워크로 직접 이동하지 않고 네트워크 카드를 통과한다. 

특히 오픈AI와 같이 AI를 개발하는 고객들이 대규모 데이터를 전송할 경우 서버에 과부하가 걸릴 수 있다. 네트워크 카드는 트래픽의 각 패킷을 라우팅하는 데 도움을 주고, 여러 성능 최적화 작업을 수행한다.

서버 간 대규모 데이터 공유 요청은 일반적으로 서버의 CPU를 거쳐야 하지만, 네트워크 카드는 CPU를 우회하는 직접 메모리 액세스(DMA) 기술을 통해 데이터 검색 속도를 향상할 수 있다.

또 서버의 CPU에서 수행되는 데이터 트래픽 암호화와 같은 보안 작업이나 데이터 전송 오류 감지와 관련된 일부 계산을 오프로드로 수행할 수 있다. 이를 통해 서버의 과부하를 해소하고, 엔비디아의 서버 칩과 MS의 자체 AI 칩의 효율과 성능을 향상할 수 있다는 설명이다. 

소식통은 새로운 네트워크 카드를 개발하는데 1년 이상이 소요될 수 있으며, 개발에 성공하면 오픈AI가 MS 서버에서 모델을 학습하는 데 걸리는 시간을 단축하고 비용도 줄일 수 있다고 설명했다.

이에 대해 MS 대변인은 “애저 인프라에 대한 시스템 접근 방식의 일환으로, 우리는 스택의 모든 계층을 최적화하는 데 중점을 두고 있다. 네트워킹 칩을 포함해 정기적으로 새로운 기술을 개발한다”라고 말했다.

현재 해당 프로젝트에 대한 추가적인 정보는 공개되지 않았으며, 제품 출시 시기 등도 알려지지 않았다.

MS 외에 아마존웹서비스(AWS)와 구글도 자체 AI 칩 외에 서버 네트워크 장비를 개발하는 것으로 알려졌다.

한편 MS는 엔비디아 의존도를 줄이기 위해 지난해 11월 대형언어모델(LLM)을 실행하고 AI 컴퓨팅을 지원하는 자체 AI 서버 칩인 ‘마이아 100(Maia 100)’를 출시했고, 올해 애저 클라우드 데이터센터에 투입할 계획이다.

박찬 기자 cpark@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지