조형근 모레 CSO가 AI 인프라 소프트웨어 기술력에 대해 설명하고 있다.
조형근 모레 CSO가 AI 인프라 소프트웨어 기술력에 대해 설명하고 있다.

인공지능(AI) 전문 모레(대표 조강원)는 ‘모레(Moreh)와 함께하는 레노버 테크데이(Smarter HPC for All)’ 행사를 통해 기업 특화 ‘AI 추론 성능 최적화 솔루션’을 하반기 론칭한다고 밝혔다.

모레와 레노버는 10일 조선팰리스 서울 강남에서 행사를 열고, 협업 및 사업 계획을 발표했다. 특히, AI 추론 성능 최적화 솔루션은 모레의 AI 최적화 기술과 레노버 및 AMD의 인프라를 결합한 것이라고 설명했다.

조형근 모레 최고 전략책임자(CSO)는 “이는 엔비디아 GPU와 쿠다(CUDA)의 결합에 맞설 대응책이 될 것”이라며 “고객사의 워크로드에 맞게 AMD와 레노버 GPU를 기반으로 소프트웨어 기술을 제공하겠다”라고 말했다.

모레의 소프트웨어 기술은 ‘GPU 가상화’를 기반으로 사용자 워크로드에 가장 적절한 GPU 양을 배분해서 제공하는 것이다. 이를 통해 노드에서 생산하는 토큰당 가격을 최소화할 수 있다고 설명했다. 대량의 노드를 연결해 클러스터를 형성할수록 성능은 증가하는 구조라고 전했다. 

파운데이션 모델 학습이나 개발은 ‘모아이(MoAI)’로 지원해 왔다. 모아이 플랫폼은 고도의 병렬화 처리 기법을 통해 대형언어모델(LLM)을 효율적으로 개발하고 학습할 수 있도록 지원한다는 설명이다. 여기에 투입된 기술을 AI 모델의 추론 능력 최적화로 확장한다는 계획이다. 

모레가 선보일 AI 추론 성능 최적화 솔루션의 인프라 선택 옵션
모레가 선보일 AI 추론 성능 최적화 솔루션의 인프라 선택 옵션

조 CSO는 “지난해 11월 영국의 한 매체로부터 ‘한국의 모레는 딥시크의 접근방식에 가장 근접한 스타트업’이라는 평가를 받은 바 있다”라며 “대량의 GPU와 연산량 등 비용적인 한계를 해결할 수 있는 이유는 바로 ‘GPU 활용 역량’을 내재화했기 때문”이라고 말했다. 

이어 “모레의 스마트 라운팅 기술 및 GPU 가상화 기술, 레노버와 AMD 등의 인프라를 결합한 결과, GPU만을 활용했을 때보다 2배 이상의 추론 성능(속도) 증가 추이를 보였다”라며 “이는 여러개의 GPU를 단순 결합하는 것을 넘어, 모레의 소프트웨어 기술력을 활용했을 때 더 뛰어난 성능을 낼 수 있다는 것을 입증한다”라고 강조했다. 

장세민 기자 semim99@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지