파수가 B2B 언어모델 ‘엘름(ellm)’을 기반으로 기업에 ‘실무 특화 인공지능(AI)’을 지원하겠다고 밝혔다. 특히 최근 추세인 AI 에이전트를 구축하기 위해 ‘모델 컨텍스트 프로토콜(MCP)’을 도입했다고 강조했다.
파수(FASOO, 대표 조규곤)는 22일 여의도 페어몬트 앰배서더 서울 그랜드볼룸에서 ‘2025 FDI 심포지엄’을 개최하고 대형언어모델(LLM) 개발 현황과 비전 등을 공개했다.
조규곤 파수 대표의 키노트로 막을 열었다. 그는 “AI는 자연어로 커뮤니케이션이 가능한 새로운 인력과 같다”라며 “하지만 특정 분야에서 신뢰할 만한 인력으로 이용하기 위해서는 기업 맞춤 언어모델과 인프라 등 시스템이 필수적”이라고 말했다.
이어 “파수의 엘름을 기반으로 하는 AI 솔루션은 거버넌스, 데이터 보안 및 관리, 온프레미스-클라우드 하이브리드 시스템 등을 모두 지원, 기업의 AI 도입 비용 및 최적화 문제를 해결해 줄 것”이라고 말했다.
파수는 지난해 ‘2024 FDI 심포지엄’에서 기업용 소형언어모델(sLM) 엘름을 공개했다. 올해 가장 크게 달라진 점은 언어모델을 넘어 ‘에이전틱(Agentic) LLM’을 지향한다는 점이다.
예를 들면, 공연 티켓이나 항공기 티켓 등 관련 일정을 챗봇에 물었을 때 탐색과 예약까지 실행해 줄 수 있는 ‘액션’이 가능한 LLM 및 솔루션을 구현한다는 것이다.
특히, 엘름을 통해 에이전트를 구동하는 데에는 세분화된 언어모델과 MCP가 키포인트라고 전했다.
먼저, 실무 성능을 끌어올리기 위해 엘름의 라인업을 세분화했다. 차세대 ‘엘름’은 ▲기본 LLM ▲리즈닝(추론) LLM ▲연구자 모드 LLM 등으로 구성된다.
기본 LLM과 리즈닝 LLM은 구글의 ‘젬마-3 12B’을 기반으로 한다. 윤경구 파수 본부장은 “미스트랄 7B나 젬마 2 라인업 등보다 젬마-3 12B를 베이스로 사용할 때 가장 성능이 월등했다”라고 이유를 밝혔다.
각 모델과 에이전트를 용도에 맞게 사용하기 위해서는 ‘MCP’가 필수적이다.
MCP는 AI 모델이 외부 데이터, 소프트웨어 등을 이용해 작업을 수행할 수 있도록 돕는 소프트웨어다. 이때 '엘름 CX'는 MCP 서버를 기반으로 모델을 관리하는 기능을 수행한다. 모델 간의 연결성 및 보안성을 강화해 편리한 사용성을 보장하는 것이 특징이다. 즉, MCP 기반으로 다양한 컨텍스트 서버가 무엇을 하는지 판단, 이를 기반으로 최적의 결과를 위한 결정을 내려주는 구조다.
이처럼 파수는 AI 에이전트가 떠오르며 MCP 중요성이 커지는 흐름을 포착, 실제 사업에 빠르게 적용하려는 의도다. 앤트로픽이 출시한 MCP는 미국에서도 업계 표준으로 자리잡고 있다.
이런 기술을 바탕으로 ▲지식(Knowledge) 마스터 ▲라이브러리언 ▲스크라이브 등 실무 특화 AI 기능을 제공한다.
지식 마스터는 일반적인 채팅 인터페이스(UI)를 가진 챗봇이다. 라이브러리언은 필요 자료를 따로 모아두고 분류해 두는 ‘검색 기반 채팅’이다.
스크라이브는 사업 보고서 등 실제 글쓰기를 돕는 기능이다. 목차 템플릿 관리 기능 , 공동 작업 기능, 작성자별 권한 관리 기능, 섹션별 고급편집 등이 가능하다.
이 외에도 추론 과정을 보여주는 ‘프롬프트 스튜디오’나 답변의 적절성과 유사도를 평가하는 ‘파수 RAG 벤치마크’ 등을 지원한다.
조규곤 파수 대표는 “가트너는 새로운 AI 모델이 2.5일에 하나씩 출시된다고 밝힌 바 있으며, 지금은 그 주기가 더 짧아졌을 것으로 예측된다”라고 말했다.
따라서 “기업은 언제든 새로운 AI 모델을 유동적으로 활용할 수 있도록 그에 맞는 시스템을 갖춰야 할 것”이라고 강조했다.
장세민 기자 semim99@aitimes.com
