네이버클라우드(대표 김유원)는 국내 최초 인공지능(AI) 데이터센터 ‘각 세종’ 테크밋업을 진행, GPU 운영 효율화 및 AI 인프라 기술을 소개했다고 28일 밝혔다.
이상준 네이버클라우드 CIO는 이 자리에서 “AI 인프라의 경쟁력은 GPU를 얼마나 많이 확보하는가를 넘어, 확보한 자원을 얼마나 안정적이고 효율적으로 운영하는지에 달려 있다”라며 “네이버클라우드는 GPU 확보와 운영 기술 내재화의 균형을 통해 AI 인프라 경쟁력을 완성하고 있다”라고 말했다.
네이버는 현재 각 세종에서 GPU 클러스터를 직접 설계 및 운영하며 냉각, 전력, 네트워크 등 데이터센터 핵심 인프라를 자체 설계하고 AI 워크로드에 최적화하는 기술을 내재화했다고 전했다.
각 세종은 기존 IDC의 저장과 처리 기능을 넘어, AI 학습과 추론이 동시에 이뤄지는 고밀도 GPU 연산 공간으로 설계됐다. 이를 위해 전력과 냉각 효율, 무정지 운영까지 모두 고려해 AI 인프라가 24시간 안정적으로 작동할 수 있는 환경을 구축했다는 설명이다.
이상준 CIO는 “네이버 데이터센터는 AI 워크로드 전체를 통합 제어할 수 있는 풀스택 AI 인프라”라며 “인프라를 하나의 시스템으로 통합적으로 설계-운영할 수 있는 역량은 국내는 물론 글로벌에서도 손꼽힌다”라고 말했다.
특히, ‘각 춘천’ 운영으로 축적한 실데이터와 열환경 분석을 바탕으로 직접외기, 간접외기, 냉수를 병행하는 하이브리드 냉각 시스템을 적용했다고 설명했다. 계절별로 냉각 방식을 자동 전환, 겨울에는 외부의 찬 공기로 직접 냉각하고 간절기와 여름에는 간접외기와 냉수를 병행한다는 내용이다.
그 결과, GPU 밀도가 높아져도 안정적인 열 제어와 높은 에너지 효율을 유지할 수 있다고 강조했다.
또, 각 세종은 장애 상황에서도 서비스가 멈추지 않도록 전력과 냉각, 서버 운용 체계를 완전히 분리하면서도 유기적으로 통합한 이중화 구조(Active–Active Architecture)로 설계됐다. GPU 서버의 고전력 특성에 맞게 무정전 전원 장치(UPS)와 배전 설비를 재배치해 장애 전파를 구조적으로 차단했다고 전했다.
현재는 액침냉각 컨테이너 인프라를 구축해 냉각 용액의 안정성, 에너지 효율, 운영 안정성 등을 검증 중이다. 이를 기반으로 고전력-고밀도 환경에 대응하는 차세대 냉각 기술 로드맵을 구체화, 수랭식 서버 냉각 관련 자체 특허도 출원 완료했다.
이렇게 축적한 기술과 운영 역량을 기반으로 서비스형GPU(GPUaaS) 모델을 통해 국내 주요 기업에 AI 인프라 서비스를 제공하고 있으며, 이미 여러 산업 현장에서 활용되고 있다고 덧붙였다.
이상준 CIO는 “축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것”이라며 “AI 인프라가 특정 기업의 자산을 넘어, 산업 전반의 성장 기반이 될 수 있도록 하겠다”라고 말했다.
장세민 기자 semim99@aitimes.com
