본문 바로가기

광고

광고닫기

광고

본문

광고

미래&과학 기술

대화 한 번에 ‘생수 한 병씩’…챗GPT의 불편한 진실

등록 2023-05-02 10:00수정 2023-05-03 10:09

데이터센터 열 식히는 냉각수 계산 결과
기기 부식 등 막으려면 깨끗한 물 써야
인공지능 훈련에는 에너지뿐 아니라 물 소비량도 상당한 것으로 드러났다. 픽사베이
인공지능 훈련에는 에너지뿐 아니라 물 소비량도 상당한 것으로 드러났다. 픽사베이

인공지능 알고리즘을 훈련하는 데 엄청난 전기가 들어간다는 사실은 익히 알려진 사실이다. 인공지능 모델의 크기가 클수록 소비되는 에너지도 커진다. 에너지 소비는 곧 온실가스인 탄소 배출로 이어진다.

최근 발표된 스탠퍼드대 인공지능 인덱스 보고서에 따르면, 요즘 선풍적인 인기를 끌고 있는 챗지피티(ChatGPT)의 기반인 거대언어모델(LLM) ‘지피티3’는 훈련 과정에서 1287MWh의 전기를 소비했다. 이로 인한 탄소 배출량 추정치는 502톤이다. 평균적인 세계인이 100년간 배출하는 양에 해당한다. 2020년 기준 한국인 1인당 탄소 배출량(11.6톤)의 43배다.

편리한 인공지능 이면에 있는 불편한 진실이다. 그런데 인공지능 훈련에는 에너지뿐 아니라 물 소비량도 상당한 것으로 드러났다. 컴퓨터 가동시 발생하는 열을 식히는 데 다량의 물이 필요한 탓이다.

미국 리버사이드 콜로라도대와 앨링턴 텍사스대 연구진은 ‘챗지피티(GPT)’와 한 번 대화를 하는 데 물 500㎖가 소비된다는 계산 결과를 사전출판논문 저장소 <아카이브>에 발표했다. 한 번 대화에서 질문과 답변을 25~50개 주고받는 걸 기준으로 한 계산이다.

‘지피티3’를 훈련시키는 데 쓴 물은 원자로 냉각탑을 채우는 데 필요한 물의 양과 같다. 체코 두코바니 원자력발전소의 냉각탑. 위키미디어 코먼스
‘지피티3’를 훈련시키는 데 쓴 물은 원자로 냉각탑을 채우는 데 필요한 물의 양과 같다. 체코 두코바니 원자력발전소의 냉각탑. 위키미디어 코먼스

원자로 냉각탑 채울 물과 같은 양

연구진은 인공지능 업체들의 데이터 센터를 냉각하는 데 필요한 물의 양을 조사한 결과, 마이크로소프트가 오픈에이아이의 거대언어모델 ‘지피티3’를 훈련시키는 데만도 70만ℓ의 물을 썼을 것으로 추정했다. 이는 원자로 냉각탑을 채우는 데 필요한 물의 양과 같다고 연구진은 밝혔다. 연구진은 또 이는 베엠베(BMW) 자동차 370대 또는 테슬라 전기차 320대를 생산하는 데 들어가는 물과 같다고 덧붙였다. 이 수치는 미국 기반 데이터 센터를 기준으로 한 것이다.

연구진은 만약 에너지 효율이 낮은 아시아의 데이터 센터로 지피티3을 훈련시켰다면 물이 3배 더 필요했을 것이라고 밝혔다. 연구진에 따르면 데이터 센터는 기기 오작동을 방지하기 위해 섭씨 10~25도의 온도를 유지해야 한다. 연구진은 이를 위해선 Kwh당 약 1갤런(3.8ℓ)의 물이 소비되는 것으로 추정했다.

또 데이터 센터에 쓰는 물은 음용수(식수)나 재처리 하수 등 깨끗한 담수를 써야 한다. 부식이나 박테리아 번식을 막기 위해서다. 깨끗한 담수는 데이터 센터의 습도 조절에도 필수적이다.

챗지피티 훈련에 이용한 마이크로소프트의 데이터센터. 마이크로소프트 제공
챗지피티 훈련에 이용한 마이크로소프트의 데이터센터. 마이크로소프트 제공

인공지능 기업의 사회적 책임 의식 필요

연구진은 오픈에이아이에 맞서 거대언어모델 ‘람다’(LaMDa)와 이에 기반한 챗봇 ‘바드’를 개발한 구글의 물 소비량도 살펴봤다.

구글은 2019년 한 해에만 미국내 3개주의 데이터 센터를 유지하는 데 23억갤런 이상의 물을 소비했다. 현재 구글의 북미 지역 데이터 센터는 14개다.

연구진은 데이터 센터가 있는 지역의 온도를 토대로 분석한 결과 구글의 람다를 훈련하는 데 필요한 물 소비량은 지피티3보다 훨씬 더 많은 수백만ℓ에 이를 수 있을 것으로 추정했다.

연구진은 “담수 부족은 전 세계가 공유하는 가장 시급한 문제 중 하나이기 때문에 이는 매우 우려스러운 일”이라며 “인공지능 기업들은 세계 물 문제에 대응하는 데 사회적 책임을 다해야 한다”고 주장했다.

물 소비량이 많다는 것은 그만큼 에너지를 많이 쓴다는 걸 뜻한다. 스탠퍼드대 보고서를 보면 구글 딥마인드의 고퍼(Gopher), 빅사이언스 이니셔티브의 블룸(BLOOM), 메타의 오피티(OPT), 오픈에이아이의 지피티3 네가지 거대 인공지능 모델을 비교한 결과 지피티3의 에너지 소비량이 가장 많았다. 고퍼의 1.4배, 블룸의 20.1배로 추정됐다.

*논문 정보

https://doi.org/10.48550/arXiv.2304.03271

Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models

bioarxiv

곽노필 선임기자 nopil@hani.co.kr
항상 시민과 함께하겠습니다. 한겨레 구독신청 하기
언론 자유를 위해, 국민의 알 권리를 위해
한겨레 저널리즘을 후원해주세요

광고

광고

광고

미래&과학 많이 보는 기사

중국 ‘우주굴기’ 덕에…마침내 벗겨지는 달 뒷면의 비밀 1.

중국 ‘우주굴기’ 덕에…마침내 벗겨지는 달 뒷면의 비밀

울릉도는 활화산, 백두산과 동일한 화산가스 나온다 2.

울릉도는 활화산, 백두산과 동일한 화산가스 나온다

우주는 얼마나 어두울까…뉴허라이즌스 통해 계산해보니 3.

우주는 얼마나 어두울까…뉴허라이즌스 통해 계산해보니

닭이 먼저냐, 달걀이 먼저냐?…6억년 전에 계획이 있었네 4.

닭이 먼저냐, 달걀이 먼저냐?…6억년 전에 계획이 있었네

광합성 필요 없는 심해 ‘암흑산소’ 발견…생명 기원까지 흔든다 5.

광합성 필요 없는 심해 ‘암흑산소’ 발견…생명 기원까지 흔든다

한겨레와 친구하기

1/ 2/ 3


서비스 전체보기

전체
정치
사회
전국
경제
국제
문화
스포츠
미래과학
애니멀피플
기후변화&
휴심정
오피니언
만화 | ESC | 한겨레S | 연재 | 이슈 | 함께하는교육 | HERI 이슈 | 서울&
포토
한겨레TV
뉴스서비스
매거진

맨위로
뉴스레터, 올해 가장 잘한 일 구독신청