최기영 스노우플레이크 한국 지사장(왼쪽부터), 제프 홀란 스노우플레이크 애플리케이션 개발자 플랫폼 총괄, 크리스티안 클레이너만 제품 담당 수석 부사장이 기자간담회에서 질의응답 진행하고 있다.
최기영 스노우플레이크 한국 지사장(왼쪽부터), 제프 홀란 스노우플레이크 애플리케이션 개발자 플랫폼 총괄, 크리스티안 클레이너만 제품 담당 수석 부사장이 기자간담회에서 질의응답 진행하고 있다.

인공지능(AI) 데이터 클라우드 전문 스노우플레이크는 9일 파크하얏트 서울에서 ‘스노우플레이크 월드 투어 서울 기자간담회’를 개최, 기업들이 AI 애플리케이션을 대규모로 쉽게 활용 및 구축할 수 있도록 코텍스 AI에서 '라마 3.1' 호스팅 및 한국어 지원을 개시한다고 밝혔다. 

코텍스 AI는 AI 애플리케이션을 기업이 쉽게 생성할 수 있도록 지원하는 도구다. 정형 데이터 기반 채팅 인터페이스(UI)를 지원하는 ‘코텍스 애널리스트’, 문서 검색 기반 채팅을 지원하는 ‘코텍스 서치’ 등으로 구성한다. 

기반 모델로는 스노우플레이크 API 및 AI21랩스, 메타, 미스트랄AI, 엔비디아, 레카 등의 모델을 지원한다. 

특히 메타가 지난달 출시한 최신 모델 중 가장 큰 '라마 3.1 405B'를 제공한다. 이 모델은 128K 컨텍스트 윈도우를 지원한다 

이는 최근 대형언어모델(LLM)에 집중하는 스노우플레이크의 움직임과도 연결된다는 설명이다. 

아직 공식 발표하지 않은 건으로 트루 에러 공식 인수 건도 공개했다. "LLM이 시간 안에 적절한 답변을 내놓는지 등 모델 관련 연구를 진행하는 기업"이라고 설명했다. 

이번 라마 3.1 지원과 함께 국내 입지 및 시장을 확장할 계획이라고 강조했다.

10일부터 진행할 ‘스노우플레이크 월드투어 서울’에서도 국내 기업 도입 사례를 주로 소개할 예정이다. 최근 국내 고객사가 세자리수로 증가, 유통 분야에서 수요가 급증한 만큼 앞으로도 금융 및 제조 등 장기적인 시장에 집중할 것이라는 설명이다. 기술실증(PoC)도 다수 진행 중이라고 강조했다.

한편 스노우플레이크는 ‘엔터프라이즈에 대한 실질적인 도입’에 주력하며 다양한 레퍼런스를 쌓아가고 있다고 전했다. 최근 사례로는 ‘스와이어 코카콜라의 운송경로 최적화’ 사례를 들었다. 스노우플레이크 코파일럿의 경우에도 많이 기업이 사용 중이라고 전했다. 

최기영 스노우플레이크 한국 지사장은 “엔터프라이즈에 높은 보안성을 갖춰 도입이 가능하다는 점을 강조하고 싶다”라고 말했다. 

크리스티안 클레이너만 스노우플레이크 제품 담당 수석 부사장은 “LLM 도입, 출시도 중요한 것은 맞지만 전체 워크로드의 일부분일 뿐”이라며 “스노우플레이크는 특정 데이터를 기반으로 정확도 높은 결과를 제공한다는 점에서 차별적”이라고 말했다.

제프 홀란 애플리케이션 개발자 플랫폼 총괄은 “사내에서도 코텍스 서치, 애널리스트 등을 이용해 내부 중요 고객사 자료를 유출하지 않고 작업 효율을 높일 수 있었다”라며 “업계 및 분야에 맞춰 각자의 방식에 따라 이용할 수 있다”라고 말했다.

장세민 기자 semim99@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지