(사진=셔터스톡)
(사진=셔터스톡)

딥시크가 최근 공개한 '실험 모델'이 중국산 칩 최적화를 위해 개발된 것으로 알려졌다. 뚜렷한 성능 향상이 없었던 이유가 설명됐다.

톰스하드웨어는 1일 딥시크-V3.2-Exp의 기술 보고서를 분석한 결과, 이 모델이 중국의 칩 제조업체인 화웨이와 캠브리콘, 하이곤 등의 적극적인 지원을 받은 것으로 드러났다고 보도했다.

이 모델은 출력 품질을 유지하면 메모리와 컴퓨팅 요구 사항을 줄이는 '희소 어텐션(sparse attention)' 메커니즘이 특징이다. 이를 비롯해 모델 훈련에 사용한 기술은 대부분 이전에 알려진 것이다.

모델 성능은 이전 버전과 대체로 비슷하거나 일부 지표에서 소폭 개선되는 데 그쳤다. 다만, API 비용을 절반으로 줄였다는 것이 강조됐다. 

하지만, 이는 중국산 칩에 최적화하려는 시도에 따른 결과다. 중국 칩은 엔비디아에 비해 성능이 떨어지기 때문에, 성능 향상보다 효율성에 초점을 맞춘 것이다. "실험적인 모델"이라는 말은 이를 설명하기 위한 것이다. 

실제로 딥시크는 중국 정부의 국산 칩 사용 권유에 따라, 첨단 플래그십 모델 개발에는 엔비디아 칩을 사용하고, 소형이나 비주류 모델에는 중국산 칩을 활용하고 있다. 

이 모델은 화웨이의 어센드 칩과 CANN 소프트웨어 스택에 맞춰 최적화됐다. 기술 보고서에는 화웨이 기술 팀과 vLLM-어센드 커뮤니티 전체가 이 모델을 신속하게 통합했다는 내용이 있다. 화웨이는 추론 레시피를 게시, 자체 하드웨어 전반에 모델을 적용할 수 있도록 했다.

캠브리콘도 이 모델과 호환되는 기술을 업데이트 출시했다. 자체 추론 엔진과 딥시크의 희소 어텐션을 결합, 긴 시퀀스 처리 비용을 절감한다고 주장했다. 하이곤은 자체 DCU 가속 칩을 조정, 모델의 반응 시간을 줄였다고 발표했다.

이 밖에도 딥시크는 연구자들에게 최소한의 조치로 모델을 중국용 칩에서 배포할 수 있도록 배포한 것으로 밝혀졌다.

이는 미국의 제재에 맞서 기술 독립을 이루려는 중국의 노력 중 하나다. 특히 이번 딥시크 모델은 엔비디아 쿠다(CUDA) 스택을 벗어난 첫 전용 모델로 꼽힌다.

한편, 딥시크는 지난 8월 'V3.1'을 공개하며 'UE8M0 FP8' 데이터 형식이 "곧 출시될 차세대 국내 생산 칩을 위해 설계됐다"라고 밝혀, 당시 중국 칩 메이커들의 주가를 크게 끌어 올렸다. 그리고 이번 모델은 그 결과인 셈이다.

임대준 기자 ydj@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지