미국의 인공지능(AI) 대기업들이 딥시크의 충격에서 벗어나 '패키징 전략'으로 맞서고 있다는 분석이 등장했다. 즉, 모델의 가격을 낮추는 대신, 기능을 추가해 제품 가격을 유지하는 전통적인 전략을 채택하고 있다는 설명이다.
파이낸셜 타임스는 13일(현지시간) 빅테크들이 모델 학습에 집중하기보다는 AI 서비스의 패키징으로 전환하고 있다고 분석했다.
이에 따르면, 우선 딥시크의 등장으로 6300억달러(약 909조5300억원)의 손실을 입은 엔비디아는 그중 절반 이상을 회복했다. 이는 미국 빅테크들이 딥시크의 충격에도 불구하고 AI 투자를 줄이지 않겠다고 발표한 데 따른 것이다.
다만, 불과 몇주전과는 다른 이유다. 이전에는 모델 학습 비용이 기하급수적으로 늘어난다는 것이 엔비디아 붐을 이끌었다면, 이제는 모델 훈련이 아닌 사용자 증가에 따른 서비스 비용의 증가, 즉 추론량이 늘어날 것이라는 기인한 것이다.
물론, 딥시크 등장으로 인해 AI 기업들이 불안을 느끼는 것은 당연하며, 이는 가장 진보한 모델을 가진 기업조차도 모델에서 서비스로 무게 중심을 움직이게 하는 데 일조했다. 특히, 오픈AI는 딥시크 등장 이전부터 스케일링 법칙의 벽에 막혀 모델 성능 향상이 더뎌지는 것을 경험했기 때문이다.
이런 요소들이 맞물려, 샘 알트먼 오픈AI CEO는 이번 주 중요한 선언을 했다. 그는 더 이상 대형언어모델(LLM)을 독립형으로 출시하지 않고, 추론 모델과 패키지화해 강화된 시스템으로 출시하겠다고 밝혔다. 또 이제부터는 사용자가 어떤 작업을 하든 "모델이 그냥 작동할 것"이라고 덧붙였다.
이는 기술 산업에서 익숙한 전략이다. '스택을 끌어 올리는 것(up the stack), 즉 상품화되는 이전 제품에 더 가치 있는 기술을 더하는 것은 가격과 이익을 유지하는 전통적인 방법이다. 특히 한때 좋은 마진을 제공했던 요소의 비용이 폭락하면, 이 전략은 더 효과적이다. 결과적으로 제품의 총비용은 낮아지고, 더 많은 수요를 일으킬 수 있기 때문이다.
AI 기술의 이런 패키징은 전체 산업의 방향에 중요한 의미가 있다. 오픈AI와 같은 회사가 더 완전한 시스템을 구축함에 따라 딥시크와 같은 후발 주자와 격차를 벌릴 수 있다는 점이다. 실제로 오픈AI는 딥시크가 보유하지 못한 검색과 멀티모달, 음성 모드, 에이전트 기능 등을 갖추고 있다.
물론 개발자나 전문 회사는 메타나 딥시크 모델을 다운받아 자체 모델을 구축할 수 있다. 이런 오픈 소스 전략은 많은 회사를 AI 붐으로 이끄는 계기가 된다.
하지만, 이는 엔비디아와 같은 AI 인프라 공급업체는 전략을 조정해야 한다는 것을 의미한다. 이제 모든 기업이 GPU를 대량으로 구입하고 점점 더 큰 모델을 훈련하지는 않을 것이기 때문이다. 이처럼 모델 훈련 위주의 인프라 전략은 추론으로 확장되며 세레브라스 등 추론 칩 전문 업체들에 기회가 될 수 있다.
그리고 가장 중요한 것은 이제는 모델 훈련이 아닌, 모델 서비스가 중심이 된다는 것이다. 빅테크들은 그동안 들어간 막대한 비용을 회수하기 위해서 더 많은 사용자를 모아야 하고, 이제는 모델로 수익을 거둬야한다는 것을 보여줘야 한다.
또 이런 추세는 딥시크가 등장하지 않았다고 해도 필연적이다. 이미 빅테크들은 투자 회수에 대한 압박을 받고 있었기 때문에 새로운 것이 아니다.
결국, 딥시크 쇼크는 이런 추세에 기름을 부었을 뿐이라는 결론이다.
임대준 기자 ydj@aitimes.com
