[AI] 챗GPT의 불편한 진실...대화 한 번에 식수 한 병씩 버려진다 로봇AI

데이터센터 열 식히는 냉각수 계산 결과
기기 부식 등 막으려면 깨끗한 물 써야
인공지능 훈련에는 에너지뿐 아니라 물 소비량도 상당한 것으로 드러났다. 픽사베이
인공지능 훈련에는 에너지뿐 아니라 물 소비량도 상당한 것으로 드러났다. 픽사베이

인공지능 알고리즘을 훈련하는 데 엄청난 전기가 들어간다는 사실은 익히 알려진 사실이다. 인공지능 모델의 크기가 클수록 소비되는 에너지도 커진다. 에너지 소비는 곧 온실가스인 탄소 배출로 이어진다.

최근 발표된 스탠퍼드대 인공지능 인덱스 보고서에 따르면, 요즘 선풍적인 인기를 끌고 있는 챗지피티(ChatGPT)의 기반인 거대언어모델(LLM) ‘지피티3’는 훈련 과정에서 1287MWh의 전기를 소비했다. 이로 인한 탄소 배출량 추정치는 502톤이다. 평균적인 세계인이 100년간 배출하는 양에 해당한다. 2020년 기준 한국인 1인당 탄소 배출량(11.6톤)의 43배다.

편리한 인공지능 이면에 있는 불편한 진실이다. 그런데 인공지능 훈련에는 에너지뿐 아니라 물 소비량도 상당한 것으로 드러났다. 컴퓨터 가동시 발생하는 열을 식히는 데 다량의 물이 필요한 탓이다.

미국 리버사이드 콜로라도대와 앨링턴 텍사스대 연구진은 ‘챗지피티(GPT)’와 한 번 대화를 하는 데 물 500㎖가 소비된다는 계산 결과를 사전출판논문 저장소 <아카이브>에 발표했다. 한 번 대화에서 질문과 답변을 25~50개 주고받는 걸 기준으로 한 계산이다.

'지피티3'를 훈련시키는 데 쓴 물은 원자로 냉각탑을 채우는 데 필요한 물의 양과 같다. 체코 두코바니 원자력발전소의 냉각탑. 위키미디어 코먼스
'지피티3'를 훈련시키는 데 쓴 물은 원자로 냉각탑을 채우는 데 필요한 물의 양과 같다. 체코 두코바니 원자력발전소의 냉각탑. 위키미디어 코먼스

원자로 냉각탑 채울 물과 같은 양

연구진은 인공지능 업체들의 데이터 센터를 냉각하는 데 필요한 물의 양을 조사한 결과, 마이크로소프트가 오픈에이아이의 거대언어모델 ‘지피티3’를 훈련시키는 데만도 70만ℓ의 물을 썼을 것으로 추정했다. 이는 원자로 냉각탑을 채우는 데 필요한 물의 양과 같다고 연구진은 밝혔다. 연구진은 또 이는 베엠베(BMW) 자동차 370대 또는 테슬라 전기차 320대를 생산하는 데 들어가는 물과 같다고 덧붙였다. 이 수치는 미국 기반 데이터 센터를 기준으로 한 것이다.

연구진은 만약 에너지 효율이 낮은 아시아의 데이터 센터로 지피티3을 훈련시켰다면 물이 3배 더 필요했을 것이라고 밝혔다. 연구진에 따르면 데이터 센터는 기기 오작동을 방지하기 위해 섭씨 10~25도의 온도를 유지해야 한다. 연구진은 이를 위해선 Kwh당 약 1갤런(3.8ℓ)의 물이 소비되는 것으로 추정했다.

또 데이터 센터에 쓰는 물은 음용수(식수)나 재처리 하수 등 깨끗한 담수를 써야 한다. 부식이나 박테리아 번식을 막기 위해서다. 깨끗한 담수는 데이터 센터의 습도 조절에도 필수적이다.

챗지피티 훈련에 이용한 마이크로소프트의 데이터센터. 마이크로소프트 제공
챗지피티 훈련에 이용한 마이크로소프트의 데이터센터. 마이크로소프트 제공

인공지능 기업의 사회적 책임 의식 필요

연구진은 오픈에이아이에 맞서 거대언어모델 ‘람다’(LaMDa)와 이에 기반한 챗봇 ‘바드’를 개발한 구글의 물 소비량도 살펴봤다.

구글은 2019년 한 해에만 미국내 3개주의 데이터 센터를 유지하는 데 23억갤런 이상의 물을 소비했다. 현재 구글의 북미 지역 데이터 센터는 14개다.

연구진은 데이터 센터가 있는 지역의 온도를 토대로 분석한 결과 구글의 람다를 훈련하는 데 필요한 물 소비량은 지피티3보다 훨씬 더 많은 수백만ℓ에 이를 수 있을 것으로 추정했다.

연구진은 “담수 부족은 전 세계가 공유하는 가장 시급한 문제 중 하나이기 때문에 이는 매우 우려스러운 일”이라며 “인공지능 기업들은 세계 물 문제에 대응하는 데 사회적 책임을 다해야 한다”고 주장했다.

물 소비량이 많다는 것은 그만큼 에너지를 많이 쓴다는 걸 뜻한다. 스탠퍼드대 보고서를 보면 구글 딥마인드의 고퍼(Gopher), 빅사이언스 이니셔티브의 블룸(BLOOM), 메타의 오피티(OPT), 오픈에이아이의 지피티3 네가지 거대 인공지능 모델을 비교한 결과 지피티3의 에너지 소비량이 가장 많았다. 고퍼의 1.4배, 블룸의 20.1배로 추정됐다.

*논문 정보

https://doi.org/10.48550/arXiv.2304.03271

Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models

bioarxiv


출처

https://futurism.com/the-byte/chatgpt-ai-water-consumption

https://gizmodo.com/chatgpt-ai-water-185000-gallons-training-nuclear-1850324249?

논문 보기

https://arxiv.org/abs/2304.03271

머신러닝 탄소배출 계산기

https://mlco2.github.io/impact/

챗지피티 전기소비량

https://towardsdatascience.com/chatgpts-electricity-consumption-7873483feac4

https://towardsdatascience.com/the-carbon-footprint-of-chatgpt-66932314627d

https://sigmaearth.com/chatgpts-carbon-footprint/

일일 사용자 1300만명, 하루 검색수 5건 기준으로

하루 7만7160킬로와트시/탄소발자국 하루 24.86톤

미국인(연간 15톤)의 19개월 배출량

https://medium.com/@chrispointon/the-carbon-footprint-of-chatgpt-e1bc14e4cc2a

https://www.nature.com/articles/d41586-023-00843-2

1인당 탄소배출량

https://karl5044.tistory.com/621

TAG

Leave Comments


profile한겨레신문 선임기자. 미래의 창을 여는 흥미롭고 유용한 정보 곳간. 오늘 속에서 미래의 씨앗을 찾고, 선호하는 미래를 생각해봅니다. 광고, 비속어, 욕설 등이 포함된 댓글 등은 사양합니다. 

Recent Trackback