(사진=셔터스톡)
(사진=셔터스톡)

인공지능(AI)의 급격한 성장에 따라 2027년에는 한 국가가 사용하는 양의 전기가 추가로 소비될 수 있다는 지적이 나왔다. 이 때문에 AI 사용에 신중해야 한다는 결론이다.

기술 전문 매체 사이테크데일리는 15일(현지시간) 알렉스 데 브리스 네덜란드 중앙은행 데이터 과학자가 '늘어나는 AI의 에너지 발자국(The growing energy footprint of artificial intelligence)'이라는 논문을 과학저널 '줄(Joule)'에 게재했다고 소개했다.

생성 AI의 훈련과 운영에 상당한 전기가 필요하다는 것은 잘 알려진 사실이다. 허깅페이스는 다국어 텍스트 생성 AI 도구가 훈련 중에 약 433MWH(메가와트시)를 소비했다. 이는 평균 미국 가정 40곳에 1년 동안 전력을 공급할 수 있는 양이다. 또 챗GPT를 실행하려면 하루에 564MWh의 전기가 필요할 수 있다.

여기에 데 브리스는 '제본스 역설(Jevons Paradox)'을 추가했다. 이는 자원 사용의 효율성이 증가하면 자원 소비가 감소하기보다는 증가할 것이라는 논리다. 즉 AI의 에너지 효율성을 증가하기 위해 전 세계적인 노력이 진행되고 있으며, 이로 인해 효율성이 늘어나는 경우 더 많은 AI의 활용을 일으킬 것이라는 예측이다.

그 예로 검색에 생성 AI를 통합하는 테스트 중인 구글을 들었다. 구글은 현재 하루 최대 90억건의 검색을 처리하는 데, 만약 모든 검색에 AI를 사용한다면 약 29.2TWh(테라와트시)가 필요할 것으로 추정했다. 이는 아일랜드의 연간 전력 소비량에 해당한다.

물론 AI 서버 구축에 들어가는 높은 비용과 AI 서버 공급망의 병목 현상 때문에 이런 극단적인 시나리오가 단기적으로 발생하기는 어려울 것으로 봤다. 

그러나 향후 수년간 AI 서버가 급격하게 늘어날 것으로 예상했다. AI 서버 생산 전망에 따르면 엔비디아 한곳만 하더라도 2027년까지 연간 150만 개의 AI 서버 장치를 출하, 전 세계 AI 관련 전력 소비량은 연간 85~134TWh가 증가할 수 있다는 예측이다.

이는 네덜란드나 아르헨티나, 스웨덴 등의 연간 전력 소비량과 맞먹는다. 또 AI 효율성이 향상되면 개발자는 일부 컴퓨터 처리 칩을 AI용으로 재활용할 수 있어 AI 관련 전력 소비가 더 증가할 수 있다는 분석이다. 현재 데이터센터는 전 세계 전력 사용량은 1~1.5%를 차지하고 있다.

논문 'The growing energy footprint of artificial intelligence' (사진=CellPress)
논문 'The growing energy footprint of artificial intelligence' (사진=CellPress)

데 브리스는 결국 “우리가 AI를 사용하는 목적에 대해 매우 주의해야 한다는 것을 의미한다"라고 말했다,

즉 "AI는 에너지 집약적이기 때문에 실제로 필요하지도 않은 모든 종류의 작업에 AI를 투입하는 것은 쓸데없는 낭비"라고 결론 내렸다.

임대준 기자 ydj@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지