(사진=셔터스톡)
(사진=셔터스톡)

오픈AI에 이어 구글도 '제미나이' 모델의 성능을 이전과 같은 속도로 향상하지 못하며 다른 개선 방안을 모색하고 있다는 소식이 등장했다. 오픈AI와 같이 사전 훈련으로 성능을 확보하지 못하자, 대신 강화 학습과 추론 강화와 같은 새로운 접근 방식에 초점을 맞추고 있는 것으로 알려졌다.

디 인포메이션은 13일(현지시간) 구글이 대규모 컴퓨팅 파워와 학습 데이터를 투입했지만 제미나이 모델의 성능을 기대만큼 끌어올리지 못한 상황이라고 보도했다.

이전보다 많은 데이터와 컴퓨팅 자원을 투입해 사전 훈련(pre-train)을 거쳤지만, 성능 차이가 거의 없었다는 설명이다. 더 높은 실행 비용이 소요됐다는 것을 감안하면 사실상 성능 후퇴로 보는 것이 맞다.

이 문제는 '스케일링 법칙'이 한계에 달했기 때문으로 분석된다. 스케일링 법칙은 LLM에 더 많은 데이터를 제공하고 컴퓨팅 자원을 확장하면 성능이 지속해서 개선된다는 가정에 기반하지만, 최근 대형언어모델(LLM)에서는 효과가 감소하고 있다는 지적이 등장했다.

구글에게 이는 특히 심각한 문제다. 제미나이는 오픈AI의 챗GPT 모델에 비해 채택률이 낮기 때문이다. 구글은 컴퓨팅 리소스 우위를 활용해 오픈AI를 따라잡기를 기대했지만, 뜻대로 되지 않았다는 말이다.

똑같은 문제에 시달리는 것으로 알려진 오픈AI는 사전 훈련보다는 새로운 추론 기술로 LLM 성능 향상을 시도하고 있다. 'o1'은 모델의 사전 훈련을 변경하지 않고, 사용자가 질문할 때 추가적인 컴퓨팅 리소스와 시간을 할당해 응답 품질을 높이는 '테스트-타임 컴퓨트' 기술을 적용하고 있다.

구글도 유사한 방향으로 나아가고 있다. 구글 딥마인드는 최근 제미나이 부문에서 o1과 유사한 기능을 개발하기 위해 새로운 팀을 꾸린 것으로 알려졌다.

딥마인드는 특히 모델의 수동 개선 작업에도 집중하고 있다. 이 과정에는 최적의 학습 모델을 구현하기 위해 설정해야 하는 ‘하이퍼파미터(hyperparameters)’를 조정하는 작업이 포함된다.

이를 통해 학습률(Learning Rate), 훈련 반복 횟수(Epoch), 가중치 초기화 등을 결정할 수 있으며, 다양한 설정을 통해 최적값들을 찾아가는 방식이다.

한편, 구글도 제미나이의 학습 데이터에 AI가 생성한 합성 데이터를 일부 추가해 성능 개선을 기대했으나 큰 효과를 보지 못한 것으로 알려졌다.

오픈AI와 다른 개발자들 역시 합성 데이터를 활용하고 있지만, 이 방법을 통해 AI 모델 성능을 크게 개선하는 데 한계가 있음을 발견했다.

박찬 기자 cpark@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지