AI-Boom(붐), 1회 요청에 필요한 전력량은?
- 에너지 / 문광주 기자 / 2023-10-16 16:10:22
- 글로벌 AI 시스템의 전력 소비는 연간 80TWh(테라와트시) 이상으로 증가할 수 있다.
- ChatGPT, BARD 등에 대한 모든 요청에는 이미 약 3-9Wh(와트시) 전력 비용이 소요
- 지난 몇 달 동안 ChatGPT에서만 하루 1억9500만 건 이상의 요청이 접수
- 2027년에 스웨덴 전력소비량과 비슷, 효율적인 기술 있어도 에너지 수요는 늘어날 것
AI-Boom(붐)에는 얼마나 많은 전력이 필요할까?
ChatGPT, BARD 등은 곧 한 국가 전체보다 더 많은 에너지를 필요로 할 수 있다.
전력 소비용 인공지능:
ChatGPT, BARD 등에 대한 모든 요청에는 이미 약 3와트시 전력 비용이 소요되며 사용자 수가 증가하고 있다. 머지않아 글로벌 AI 시스템의 전력 소비는 연간 80TWh(테라와트시) 이상으로 증가할 수 있다. 이는 한 연구원이 판단한 바에 따르면 네덜란드, 스웨덴 혹은 아르헨티나와 같은 국가의 전력 수요에 해당한다. 이는 인공지능이 훈련하고 사용하는 데 필요한 강력한 프로세서 때문이다.
![]() |
▲ 표준 Google 검색과 비교한 다양한 AI 기반 시스템의 요청당 예상 에너지 소비량 (출처: 관련논문 The growing energy footprint of artificial intelligence / Joule Oct.10. 2023) |
지금까지 새로운 비트코인과 기타 암호화폐를 생성하기 위해 엄청난 컴퓨팅 성능과 전기를 사용하는 것은 주로 암호화폐 채굴자였다. 그러나 이제 또 다른 기술이 그들을 앞지르고 있다. 바로 인공지능이다. ChatGPT, BARD 등과 같은 생성 AI 시스템의 교육 및 운영에는 막대한 컴퓨팅 성능과 이에 따라 에너지를 많이 소비하는 프로세서가 필요하다.
훈련 중뿐만 아니라 엄청난 전력 소비
이것이 글로벌 AI의 현재와 미래의 전력 소비에 대해 무엇을 의미할까?
암스테르담 자유대학의 알렉스 드 브리스(Alex de Vries)는 “AI가 붐을 이루면서 AI 모델을 개발하고 운영하는 데 필요한 컴퓨팅 리소스가 데이터센터의 전 세계 전력 소비 기여도를 크게 높일 것이라는 우려가 커지고 있다”고 설명했다. 지금까지 인공지능 훈련 단계의 전력 소비에만 초점을 맞춰왔다면, 현재 진행 중인 AI 시스템 운영에 얼마나 많은 전력이 필요한지 좀 더 자세히 살펴봤다.
“연구 회사인 SemiAnalytic의 데이터에 따르면, ChatGPT만을 계속 실행하려면 OpenAI에는 NVIDIA의 HGX A100 서버 3,617대와 총 28,936개의 그래픽 처리 장치가 필요하다”고 드 브리스가 보고했다. “이로 인해 하루에 564MWh의 에너지가 필요하게 된다.” 이에 비해 GHPT-3 언어 모델을 훈련하는 데는 총 약 1,287MWh가 필요했다.
![]() |
▲ 인공지능은 학습과 운영을 위해 강력한 프로세서와 이에 상응하는 전력을 필요로 한다. © gorodenkoff/Getty 이미지 |
요청당 3~9Wh(와트시) 전력 소비
구체적으로, de Vries의 보고에 따르면 이는 생성 AI 시스템의 모든 단일 요청이 추정치에 따라 이미 3와트시에서 거의 9와트시 사이의 전력을 소비한다는 것을 의미한다. 그러나 지난 몇 달 동안 ChatGPT에서만 하루 1억9500만 건 이상의 요청이 접수됐으며 그 추세는 계속해서 증가하고 있다. 연구진은 “AI를 활용한 서비스에 대한 수요가 늘어나는 만큼 앞으로 몇 년간 인공지능으로 인한 에너지 소비가 크게 늘어날 가능성이 높다”고 말했다.
하지만 얼마나 수요가 강해질까?
De Vries는 Google의 예를 사용하여 이를 설명한다. 가까운 미래에 Google의 모든 검색이 BARD AI 시스템을 통해 실행된다면 Google의 데이터센터에만 연간 29.3TWh(테라와트시)의 에너지가 필요할 것이다. 이는 아일랜드의 전체 연간 전기 소비량과 맞먹는 규모이며, 이전에 암호화폐 채굴자들의 전기 소비량에 대해 예측했던 에너지양과 거의 정확히 일치한다.
2027년 AI에는 스웨덴만큼 많은 전력이 필요할 수 있다.
AI에 필요한 그래픽 프로세서의 전 세계적 부족과 데이터센터의 급속한 확장 비용으로 인해 AI 시스템의 성장은 지연될 전망이다. “AI 서버 공급망은 몇 년 동안 병목 현상을 겪을 것이다”고 de Vries는 설명했다. 고성능 칩의 주요 공급업체인 대만 기업 TSMC는 이미 또 다른 공장을 짓고 있지만 2027년 이전에는 완공되지 않을 예정이다.
그러나 그때부터 TSMC만으로도 연간 150만 대의 새로운 AI 서버 장치를 공급할 수 있게 된다. 현재 AI용으로 변환되고 있는 암호화폐 채굴용 그래픽 프로세서도 있다. 현재 추정에 따르면 2027년까지 인공지능의 사용이 너무 증가해 전 세계 AI 데이터센터가 연간 85~134테라와트 시간의 전력을 소비하게 될 수 있다. 이는 스웨덴, 아르헨티나 혹은 네달란드의 연간 전체 전력 수요에 맞먹는 양이다.
더 효율적인 기술이 있어도 에너지 수요는 늘어날 것
보다 효율적인 AI 시스템과 컴퓨팅 기술의 개발조차도 아마도 이 부분을 조금 바꿀 것이다. “이러한 발전은 효율성 증가로 인해 AI에 대한 수요가 증가하는 반등 효과를 유발할 수 있다. 이렇게 하면 리소스의 전체 사용량이 줄어들기는커녕 오히려 늘어날 것이다”고 de Vries는 설명했다. 왜냐하면 AI 시스템이 더욱 경제적이게 되면 시스템이 더 저렴해지고 더 매력적이게 되기 때문이다.
“우리는 인공지능을 어떤 용도로 사용할지 신중하게 생각해야 한다”고 연구원은 경고했다. “이러한 시스템은 에너지 집약적이므로 실제로 필요하지 않은 모든 곳에 설치해서는 안 된다.”
(Joule, 2023; doi: 10.1016/j.joule.2023.09.004)
출처: Cell Press
[더사이언스플러스=문광주 기자]
[ⓒ the SCIENCE plus. 무단전재-재배포 금지]