사카나AI가 대형언어모델(LLM)의 과학적 연구를 위해 프로그램을 진화하는 오픈 소스 프레임워크를 공개했다. 이는 모델 병합을 통해 성능을 진화하는 기존 방식의 낮은 효율성과 높은 비용 문제를 극복한 것으로, 과학과 공학 분야에서 빠르고 효과적인 해법 탐색을 가능하게 했다는 설명이다.
사카나AI는 25일(현지시간) 새로운 모델 학습 프레임워크 ‘신카이볼브(ShinkaEvolve)’를 온라인 아카이브를 통해 오픈 소스로 발표했다. '신카'는 진화를 뜻하는 일본어다.
이 회사는 이전부터 모델 병합(Merge)을 통해 장점을 결합하는 '모델 진화'에 집중했다. 하지만 기존의 방식은 수천번의 시도를 거쳐야 의미 있는 결과가 나오는 경우가 많았다.
반면, 신카이볼브는 몇백번 만의 시도로 최적 해법에 도달할 수 있다고 주장했다.
대부분 진화 시스템은 무작위 탐색(brute force)에 의존, 방대한 샘플링 비용이 발생한다. 이를 해결하기 위해 신카이볼브는 세가지 핵심 구성 요소를 도입했다.
탐색과 활용을 균형 있게 조절하는 탐색–활용 균형(parent sampling) 기법은 기존의 좋은 해법을 활용하면서 동시에 새로운 아이디어를 동시에 탐색한다.
또 신규 기반 거절 필터링(novelty-based rejection filtering)을 통해 기존 해법과 지나치게 비슷한 변형은 사전에 걸러 평가 낭비를 줄인다. 이 과정에서는 코드 임베딩과 LLM을 활용한 ‘창의성 판정’이 사용된다.
마지막으로 작업별 LLM 우선순위화 전략을 통해 여러 LLM을 앙상블로 활용하면서 상황에 맞춰 가장 적합한 모델을 선택해 진화 과정을 최적화한다.
이런 방식을 통해 신카이볼브는 여러 과제에서 뛰어난 성능을 보였다.
먼저 서클 패킹 문제(26개의 원을 정사각형 안에 배치하는 문제)에서는 150번의 시도만으로 새로운 최첨단 해법을 찾아냈다. 이는 기존 연구에 비해 훨씬 효율적인 결과다. 새로 발견된 알고리즘은 황금각 나선 방식으로 초기 위치를 잡고, 기울기 기반으로 세밀하게 조정하며, 시뮬레이티드 어닐링 기법으로 최적점을 찾아내는 여러 방법을 조합한 접근 방식이다.
또 수학 문제 해결(AIME) 분야에서는 단 75세대 만에 ‘전문가 페르소나-비판적 검토-최종 합성’의 3단계 구조를 자동으로 설계했다. 이 과정에서 기존의 강력한 모델들을 능가하는 성과를 거두었으며, 이 구조는 다른 연도의 문제나 다른 LLM에서도 잘 적용되는 일반화 능력을 보여주었다.
경쟁 프로그래밍 분야(AtCoder ALE-Agent 개선)에서는 최신 에이전트가 제시한 해법을 향상해 평균 성능을 높였다. 특히 일부 과제에서는 기존 순위 5위에서 2위로 뛰어오를 정도로 눈에 띄는 개선을 이루었다.
마지막으로, 전문가 혼합(MoE) 모델 학습 분야에서는 단 30세대 만에 기존 딥시크 의 글로벌 LBL 손실 함수를 뛰어넘는 새로운 부하 분산 손실 함수를 찾아냈다.
이를 통해 LLM 학습의 효율이 크게 향상하고, 정확도도 개선하는 성과를 거뒀다는 설명이다.
사카나는 "신카이볼브는 과학자와 엔지니어의 일상 업무를 지원하는 사용하기 쉬운 동반 도구가 되는 것"이라며 "앞으로도 자연에서 영감을 받은 더 효율적인 시스템을 구축, AI 기반 과학 연구의 미래를 열겠다"라고 밝혔다.
신카이볼브의 코드는 깃허브에 다운받을 수 있다.
박찬 기자 cpark@aitimes.com
