(사진=셔터스톡)
(사진=셔터스톡)

알리바바가 무려 1조개(1000B) 이상의 매개변수를 가진 새로운 플래그십 대형언어모델(LLM)을 공개했다. 이제는 오픈 소스 최강을 넘어, 미국의 폐쇄형 모델과 본격적인 경쟁을 예고했다.

알리바바는 6일 X(트위터)를 통해 '큐원3-맥스-미리보기(Qwen3-Max-Preview(Instruct))'를 소개했다.

주목할 점은 이제까지 등장한 알리바바의 모델과는 달리, 오픈 소스가 아니라는 것이다. 이 모델은 큐원 챗이나 알리바바 클라우드 API를 통해 이용 가능하다. 최근 메타의 슈퍼인텔리전스 랩(MSL)이 프론티어급 모델을 폐쇄형으로 출시하겠다는 전략과도 흡사하다.

알리바바는 "1조개가 넘는 매개변수를 갖춘 역대 최대 규모의 모델"이라고 강조했다. 이제까지 알려진 오픈 모델 중 가장 규모가 큰 것은 6710억개의 매개변수를 가진 '딥시크-V3'와 '딥시크-R1'다. R1은 V3를 기반으로 제작됐다.

역대급 규모를 갖춘 만큼 성능도 뛰어나다. 벤치마크 비교 대상으로는 이전 버전인 '큐원3-235B(Qwen3-235B-A22B-250)'와 최근 중국에서 화제를 일으킨 '딥시크-V3.1', 문샷 AI의 '키미 K2', 앤트로픽의 '오퍼스 4(비추론)' 등을 내세웠다.

그 결과, 상식(슈퍼GPQA)과 수학(AIME24), 코딩(라이브코드벤치), 아레나하드, 라이브벤치 등 5개 분야에서 모든 모델의 성능을 앞질렀다.

컨텍스트 창도 캐싱을 통해 최대 26만2000(262K) 토큰을 지원하는 등 대부분 상용 모델을 넘어서는 확장된 문서 및 세션 처리가 가능하다.

API 비용은 토큰 사용량에 따라 가격이 달라진다. 32K 토큰까지는 100만개 입력 시 0.861달러, 100만개 출력 시 3.441달러로 경쟁력이 있으나, 128~252K 토큰 사용 시에 2.151달로와 8.6달러로 가격이 껑충 뛴다. 


미리보기 출시, 즉 테스트 성격이라 자세한 기술 내용은 공개하지 않았다. 대신, "내부 테스트와 초기 사용자 피드백을 통해 더욱 강력한 성능, 더욱 폭넓은 지식, 향상된 대화, 에이전트 작업 및 지시 이행 능력을 확인할 수 있다"라고 설명했다. 

또 일부의 테스트에 따르면 알리바바는 추론 모델이라고 밝히지 않았음에도, 복잡한 요청에 대해 구조화된 추론 능력을 보여준다는 분석도 등장했다.

한편, 최근 AI 업계가 작고 효율적인 모델 출시를 지향하는 가운데 엄청난 규모를 내세웠다는 점에서 의도는 확실해 보인다. 오픈 모델은 물론, 이제는 오픈AI나 구글, 앤트로픽 등 폐쇄형 프론티어 모델과 본격 경쟁에 나서겠다는 의미다.

알리바바 역시 "이 모델은 확장성도 뛰어나며, 공식 출시 때는 더 놀라운 결과를 보여줄 것"이라고 예고했다.

임대준 기자 ydj@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지