2024년까지 4조~8조 추가 비용 예상
칩 개선과 데이터셋 축소 등 해결책 마련

(사진=셔터스톡)
(사진=셔터스톡)

구글과 마이크로소프트(MS)가 새로운 인공지능(AI) 챗봇 검색에 대한 비용 부담을 털어놓았다. 앞으로 2년간은 비용이 만만치 않을 거라는 예측이다.

존 헤네시 알파벳 회장은 22일(현지시간) 로이터 인터뷰에서 "우리는 반드시 할 일은 추론 비용을 줄이는 것"이라며 "최악의 경우 2년간 (비용이) 문제가 될 수 있다"고 밝혔다. 알파벳은 구글의 모 회사다.

그는 또 "LLM(대규모 언어 모델) 기반 AI를 활용하면 기존 키워드 검색보다 10배 더 큰 비용이 든다"며 "여러 방법을 통해 비용을 빠르게 줄여야 한다"고 덧붙였다.

MS도 마찬가지다. 에이미 후드 MS CFO는 애널리스트들에게 "비용이 많이 들어가는 것은 사실"이라며 "사용자 확보 및 광고 수익의 점진적인 증가로 비용을 상쇄하면 더 큰 이득을 얻을 수 있다"고 말했다. 

이미 검색 부분 유료화를 선언한 리처드 소저 유닷컴 CEO는 AI 챗봇 도입과 차트 및 비디오 등 생성 AI 도입으로 비용이 30~50% 증가한다며 "시간이 지나며 비용은 저렴해질 것을 기대한다"고 말했다.

이처럼 초거대 AI를 기반으로 한 챗봇 검색 방식은 슈퍼컴퓨팅이 필요하기 때문에 기존 검색보다 비용이 휠씬 많이 들어간다. 모건스탠리는 지난해 3조3000억개의 검색 쿼리를 처리한 구글의 경우 쿼리당 0.2센트의 비용이 들어갔으며, 생성 AI가 그 절반을 처리할 경우 2024년까지 60억달러(7조7800억원)가 추가로 들어갈 것으로 예상했다.

이와는 달리 슈퍼컴퓨터의 칩 능력을 기반으로 비용을 계산한 컨설팅 업체 세미 애널리시스에 따르면 구글은 최소 30억달러(약 3조8900억원)를 더 부담해야 된다.

챗봇의 도입으로 비용이 증가, 새로운 검색 업체들이 유료화를 잇달아 선언한 것은 잘 알려진 사실이다. 유닷컴 이외에도 지난주 챗봇 방식 검색을 도입한 스타트업 니바가 월정액제 서비스를 채택하고 있다.

글로벌 투자분석 업체 아크인베스트에 따르면 AI의 머신러닝에 들어가는 비용은 해마다 70%씩 줄어들어, 2030년에는 거의 비용이 발생하지 않는 수준까지 떨어진다. 하지만 초기 몇 년간은 여전히 비용이 큰 부담이다.

전문가들은 추론 비용을 줄이기 위한 방법으로는 방대한 데이터를 처리하는 슈퍼컴퓨터의 성능을 높이는 방법과 적은 양의 데이터셋 학습으로 고품질의 검색 결과를 도출할 방법 등을 제시하고 있다.

로이터는 실제로 알파벳과 다른 회사의 연구원들이 LLM을 저렴하게 훈련하는 방법을 연구했다고 설명했다. 구글 역시 최근 '람다의 소형 버전'이 챗봇 바드를 운영할 것이며 "훨씬 적은 컴퓨팅 성능을 요구한다"고 밝혔다.

또 익명을 요구한 관계자에 따르면 챗GPT를 내놓은 오픈AI는 칩을 효율적으로 실행하는 코드를 통해 비용을 낮추는 방법을 발견한 것으로 알려졌다. 오픈AI는 공식적인 답변을 내놓지 않았다.

더불어 헤네시 회장은 지난주 한 컨퍼런스에서 "챗봇이 광범위한 검색 작업을 수행하는 것보다 한 분야에 집중하는 방식(버티컬 서비스)이 비용을 줄이는 데 도움이 될 것"이라고 말했다.

임대준 기자 ydj@aitimes.com

키워드 관련기사
  • 검색 전쟁, AI 하드웨어로 확전
  • '챗GPT'가 남긴 또 다른 숙제...'검색 유료화'
  • "MS, 구글과의 경쟁은 '쩐'의 전쟁...전략적으로 이용"