• Home
  • AI Report
  • 메타의 AI 모델 훈련에 올림픽 수영장 1/4 채울 물 소비… 생성형 AI 환경 영향 심각

메타의 AI 모델 훈련에 올림픽 수영장 1/4 채울 물 소비… 생성형 AI 환경 영향 심각

Artificial Intelligence: Generative AI's Environmental and Human Effects
이미지 출처: GAO

Artificial Intelligence: Generative AI’s Environmental and Human Effects


생성형 AI, 전력 소비량 급증으로 미국 전체 전력의 6%까지 차지할 전망

생성형 인공지능(Generative AI)이 산업 전반에 혁명적 변화를 가져올 것으로 예상되는 가운데, 이 기술이 환경과 사회에 미치는 영향에 대한 우려의 목소리가 커지고 있다. 미국 회계감사원(GAO)이 발표한 보고서에 따르면, 생성형 AI는 상당한 에너지와 수자원을 소비하고 있지만, 기업들은 이러한 소비에 대한 상세 정보를 공개하지 않고 있는 실정이다.

국제에너지기구(International Energy Agency)의 추산에 따르면, 미국 데이터 센터의 전력 소비량은 2022년 기준 미국 전체 전력 수요의 약 4%를 차지했으며, 2026년에는 이 비율이 6%까지 증가할 것으로 예상된다. 로렌스 버클리 국립연구소(Lawrence Berkeley National Laboratory)는 더 나아가 2028년까지 데이터 센터의 총 전력 수요가 미국 전력 소비량의 6.7%에서 12%까지 차지할 수 있다고 추정했다.

특히 주목할 점은 데이터 센터 내에서도 AI 관련 전력 소비 비중이 빠르게 증가하고 있다는 것이다. 한 에너지 연구 기관은 2024년 5월 발표한 백서에서 AI 애플리케이션이 데이터 센터 전력의 10~20%를 사용하고 있으며, 이 비율이 급속히 증가하고 있다고 밝혔다. 한 금융 연구 그룹은 2030년까지 AI가 데이터 센터 전력의 20%를 사용할 것으로 예측했다.

생성형 AI 모델 훈련에 올림픽 수영장 25% 채울 물 소비, 기업들 사용량 공개는 꺼려

생성형 AI 모델 훈련에 소요되는 자원의 양도 상당하다. 메타(Meta)의 ‘라마 3.1 405B'(Llama 3.1 405B) 모델을 훈련시키는 데 약 21,588 메가와트시(MWh)의 전력이 소비되었으며, 이는 8,930톤의 이산화탄소 배출량에 해당한다. 생성형 AI 개발 기업들은 모델 훈련 과정에서 소비되는 물의 양에 대한 정보를 공개하지 않고 있지만, 한 학술 논문에 따르면 특정 생성형 AI 모델을 훈련시키는 데 최첨단 데이터 센터에서 냉각을 위해 약 70만 리터의 담수가 직접 증발될 수 있다고 한다. 이는 올림픽 규모 수영장의 약 25%를 채울 수 있는 양이다.

AI 사용 단계에서의 환경 영향도 간과할 수 없다. 표준 키워드 검색은 약 0.3 와트시(Wh)의 전력을 사용하는 반면, 생성형 AI 모델과의 단일 상호작용은 3 와트시를 사용할 수 있다. 이는 생성형 AI를 이용한 검색이 표준 검색보다 10배 더 많은 에너지를 소비한다는 것을 의미한다.

딥페이크부터 개인정보 유출까지… 생성형 AI가 가져올 5가지 주요 위험과 도전 과제

GAO 보고서는 생성형 AI가 가져올 수 있는 긍정적 효과뿐만 아니라, 사회, 문화, 그리고 개인에게 부정적 영향을 미칠 수 있는 5가지 주요 위험과 도전 과제를 강조했다.

첫째, 안전하지 않은 시스템은 부정확한 정보, 바람직하지 않은 콘텐츠, 또는 악의적 행동을 가능하게 하는 출력물을 생성할 수 있다. 예를 들어, 딥페이크(Deepfake)와 같은 의도적 조작이나 환각 및 착각(예: 부정확한 법률 또는 의학 조언)이 생성형 AI 모델 행동의 결과로 발생할 수 있다.

둘째, 데이터 프라이버시 부족은 사용자의 개인 정보가 의도치 않게 공개될 위험이 있다. 대규모 생성형 AI 시스템의 훈련 데이터는 인터넷에서 공개적으로 이용 가능한 정보를 포함하며, 이러한 개인 데이터가 의도치 않게 어떤 사용자에게도 공개될 수 있다.

셋째, 사이버보안 우려는 생성형 AI 시스템의 보안 안전장치를 우회할 수 있는 공격으로 이어질 수 있다. 특히 프롬프트 인젝션, 데이터 포이즈닝, 탈옥(jailbreak) 등의 공격에 취약하다.

넷째, 의도하지 않은 편향은 생성형 AI 시스템을 개발하고 유지하는 데 사용되는 훈련 소스의 통계적, 맥락적, 역사적, 인지적 편향으로 인해 발생할 수 있다. 이로 인해 고정관념을 반복하는 텍스트나 이미지가 출력될 수 있다.

다섯째, 책임성 부족은 위의 위험이나 다른 문제로 인해 피해가 발생했을 때 책임 소재를 식별하기 어렵게 만든다. 이는 생성형 AI 시스템이 대체로 ‘블랙박스’로 남아 있어 설계자조차도 시스템이 어떻게 출력물을 생성하는지 완전히 이해하지 못하기 때문이다.

“정보 접근성 높이지만 피해 발생 시 책임은 누구에게?” 생성형 AI 공공 서비스 활용의 명암

생성형 AI 시스템은 공공 서비스 제공을 개선할 수 있는 잠재력을 가지고 있다. 예를 들어, 정부는 생성형 AI를 활용하여 법령을 요약하고 정보를 평이한 언어나 개인의 모국어로 제공할 수 있다. 이로 인해 사용자의 정보 접근성이 향상되고, 공공 서비스 만족도가 높아지며, 고객 서비스 담당자의 대응성이 증가할 수 있다.

그러나 개인이 생성형 AI에 의해 정보를 제공받거나 결정이 내려지는 과정에서 피해가 발생할 경우, 이에 대한 이의 제기나 문제 해결을 위한 선택지가 제한적이라는 문제가 있다. 따라서 정부의 생성형 AI 사용에는 효과적인 평가와 검증이 필요하다.

FAQ

Q: 생성형 AI가 소비하는 에너지의 양은 얼마나 되나요?

A: 생성형 AI 모델 훈련에는 상당한 에너지가 필요합니다. 예를 들어, 메타의 라마 3.1 405B 모델을 훈련시키는 데 약 21,588 메가와트시의 전력이 사용되었습니다. 이는 미국 가정 약 2천 가구가 1년 동안 사용하는 전력량에 해당합니다.

Q: 생성형 AI가 사회에 미치는 가장 큰 위험은 무엇인가요?

A: GAO 보고서에 따르면 생성형 AI의 주요 위험은 안전하지 않은 시스템, 데이터 프라이버시 부족, 사이버보안 우려, 의도하지 않은 편향, 그리고 책임성 부족 등이 있습니다. 이러한 위험은 부정확한 정보 확산부터 개인정보 침해까지 다양한 사회적 문제를 야기할 수 있습니다.

Q: 생성형 AI의 환경 영향을 줄이기 위한 방안은 무엇인가요?

A: 환경 영향을 줄이기 위해 하드웨어와 알고리즘의 기술적 혁신을 계속 발전시키는 것이 중요합니다. 또한 개발자들은 모델 세부 정보, 훈련 및 사용에 필요한 인프라, 에너지 소비, 탄소 배출량, 물 소비량 등의 정보를 투명하게 공개할 필요가 있습니다.

해당 기사에서 인용한 보고서 원문은 링크에서 확인할 수 있다.

이미지 출처: GAO

기사는 클로드와 챗GPT를 활용해 작성되었습니다. 




메타의 AI 모델 훈련에 올림픽 수영장 1/4 채울 물 소비… 생성형 AI 환경 영향 심각 – AI 매터스