(사진=오픈AI)
(사진=오픈AI)

오픈AI CTO 출신 미라 무라티의 스타트업 싱킹 머신즈 랩(TML)이 첫번째 제품을 공개했다. 기업용 AI 서비스를 개발한다고 밝힌 대로, 파운데이션 모델이 아닌 미세조정 도구를 내놓은 것이 특징이다. 

TML은 1일(현지시간) 연구자와 개발자가 대규모 AI 모델을 쉽고 강력하게 미세조정할 수 있도록 자동화한 파이썬 기반 API ‘팅커(Tinker)’를 출시했다.

무라티 CEO는 “팅커는 연구자와 개발자가 모델 실험을 더 쉽게 할 수 있도록 돕고, 프런티어 AI 역량을 모든 사람에게 열어줄 것”이라며 “이는 완전히 게임 체인저”라고 강조했다.

팅커는 단순한 드래그앤드롭 방식의 도구가 아니라, 연구자가 직접 학습 파이프라인을 구성할 수 있도록 설계된 저수준이면서도 사용자 친화적인 API다.

파이썬 네이티브 프리미티브를 제공하여 ‘forward_backward’나 ‘sample’과 같은 기능을 바로 활용할 수 있으며, 메타의 '라마'와 알리바바의 '큐원' 등 다양한 오픈 소스 모델도 지원한다.

또 LoRA 기반 튜닝과 다중 학습 작업 간 연산 자원 공유를 통해 비용 효율성을 최적화할 수 있으며, 강화 학습(RL)과 지도 학습(SFT) 모두를 지원한다. 연구자들은 사후 학습(Post-training) 방법 구현을 포함한 오픈소스 보조 라이브러리인 ‘팅커 쿡북(Tinker Cookbook)’을 활용해 더욱 편리하게 학습 파이프라인을 구축할 수 있다.

사용자는 코드 몇줄만으로 SFT이나 RL 기반 튜닝을 실행할 수 있으며, 분산 컴퓨팅과 GPU 클러스터 관리 같은 복잡한 인프라 문제는 팅커가 대신 처리한다. 이를 통해 연구자는 모델 학습과 실험에 집중할 수 있다.

존 슐만 수석 과학자는 “우리는 분산 학습의 복잡성을 추상화하지만, 데이터와 알고리즘에 대한 완전한 제어권은 사용자에게 준다”라며 “이제 누구나 RL이나 맞춤형 튜닝을 시도할 수 있다”라고 설명했다.


팅커는 공식 공개 전부터 프린스턴대학교와 스탠포드대학교, UC버클리, 레드우드 리서치 등 주요 연구 기관이 베타 테스트에 참여, 성능과 활용 가능성을 입증했다.

프린스턴대 연구팀은 정리 증명(Theorem Proving) 모델을 LoRA로 튜닝해 대규모 SFT 모델과 맞먹는 성능을 구현했다. 스탠포드대 연구진은 화학 반응 모델을 RL로 훈련시켜 정확도를 3배 이상 향상했으며, 버클리 연구팀은 팅커를 활용해 멀티에이전트 RL 훈련을 구현함으로써 이전에는 불가능했던 실험을 가능하게 했다. 레드우드 리서치는 장기 컨텍스트 제어 과제에서 큐원 모델을 RL로 훈련해 성능 한계를 돌파했다.

'바이브 코딩'이라는 용어를 만든 안드레이 카파시 유래카 랩스 CEO는 “팅커는 연구자가 알고리즘 제어권의 90%를 유지하면서도 인프라 부담의 90%를 줄여준다”라며 “현명한 균형을 잡은 설계”라고 평했다.

오픈 소스 모델 튜닝은 잠재적으로 악용 가능성이 있다는 지적도 있다. 이에 대해 TML은 초기 접근자 심사 절차를 도입했으며, 장기적으로는 자동화된 남용 방지 시스템을 구축할 계획이다.

무라티 CEO는 “프런티어 연구소와 학계의 연구가 점점 괴리되는 현상은 바람직하지 않다”며 “팅커가 더 많은 이들에게 연구 기회를 열어줌으로써 AI 발전의 속도를 더할 것”이라고 밝혔다.

현재 팅커는 프라이빗 베타 형태로 제공되며, 대기자 명단을 통해 신청 가능하다. 베타 기간에는 무료로 제공되며, 곧 사용량 기반 과금 모델이 도입될 예정이다.

한편, TML은 창업 초기부터 업계의 큰 관심을 받으며 지난 7월 스타트업 사상 최대 규모의 20억달러(약 2조8000억원)의 시드 투자를 유치했다. 기업 가치는 120억달러(약 17조원)에 달한다.

그러나 이제까지 어떤 제품을 개발하는지 밝히지 않아, 궁금증을 키웠다. 그동안 홈페이지에는 "기업용 AI"를 개발한다고만 소개했다.  

박찬 기자 cpark@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지