The AI Power Surge
생성형 AI 데이터센터, 2030년 누적 투자액 2.35조 달러 예상
생성형 인공지능(생성형 AI) 산업이 급성장하면서 데이터센터 인프라에 대한 투자가 폭발적으로 증가하고 있다. 2022년 11월 ChatGPT 3.5 출시 이후 생성형 AI는 기술 산업 투자의 중심으로 급부상했으며, 산업 리더들의 관심과 자원을 지속적으로 끌어모으고 있다.
미국 전략국제연구센터(CSIS)에서 발간한 ‘인공지능 전력 급증(The AI Power Surge)’ 보고서에 따르면, 가장 적극적인 성장 시나리오에서 2030년까지 생성형 AI 인프라에 대한 누적 자본 지출이 2.35조 달러에 달할 것으로 예상된다. 이 시나리오는 19세기 말과 20세기 초 전기, 베세머 제강법, 내연기관이 생산 방식을 근본적으로 변화시킨 ‘제2차 산업혁명’의 성장 패턴을 모델로 삼고 있다.
오픈AI의 CEO 샘 알트만은 2030년 이전에 생성형 AI 투자를 위한 7조 달러 규모의 기금 조성에 대해 논의한 바 있다. 이처럼 거대한 규모의 투자 계획은 산업 리더들이 생성형 AI의 변혁적 잠재력에 대해 얼마나 높은 확신을 갖고 있는지 보여준다.
TSMC 생산능력의 최대 50%가 AI GPU로… 반도체 공급망 지정학적 리스크 직면
보고서는 생성형 AI 산업 성장의 세 가지 잠재적 제약 요인으로 자금 조달, 하드웨어 가용성, 전력 수요를 지목했다. 이 중 GPU 생산 능력은 중요한 병목 현상으로 작용할 수 있다.
연구자들은 2030년까지 생성형 AI 산업이 대만 반도체 제조회사(TSMC)의 전체 생산 능력 중 15~50%를 사용해야 할 것으로 예측했다. TSMC는 현재 최첨단 GPU 시장에서 90% 이상의 점유율을 보유하고 있다. 이는 상당한 규모지만, TSMC가 최첨단 제조업체이고 생성형 AI가 최첨단 응용 분야임을 고려할 때 실현 가능한 수치다.
다만 이 분석에는 대만에서의 무력 충돌이라는 심각한 비경제적 병목 현상이 고려되지 않았다는 큰 주의점이 있다. 연구진은 이 연구의 결론이 대만 반도체의 지속적인 공급에 달려 있다고 강조했다.
생성형 AI의 전력 수요, 2030년까지 텍사스주 전체와 맞먹는 84GW로 증가 전망
생성형 AI 산업 성장의 가장 심각한 제약 요인은 전례 없는 규모의 전력 수요인 것으로 나타났다. 보고서 모델에 따르면, 생성형 AI 기술에 필요한 전력 요구량은 2024년 4,000MW(4GW)에서 2030년 84,000MW(84GW)로 증가할 것으로 예상된다.
이는 미국 전력망에 텍사스주 규모의 새로운 수요를 추가하는 것과 같은 수준이다. 맥락을 살펴보면, 2024년 미국의 최대 전력 수요는 745GW로, 10년 넘게 크게 변하지 않았다. 뉴욕주의 최대 수요는 약 33GW(2023년 여름), 캘리포니아 전력망 CAISO의 역대 최대 수요는 52GW(2022년 9월)이다. 2024년 텍사스 주요 전력망 운영자인 ERCOT의 최대 생산량은 85GW였다.
LBNL의 2024년 연구에 따르면, 미국 데이터센터 전체 수요는 2024년 약 40GW에서 2028년 74~132GW로 증가할 수 있다. 이는 4년 만에 34~92GW의 수요 증가를 의미한다.
소프트웨어 엔지니어 생산성 42% 향상만으로도 4,300억 달러 AI 투자 정당화 가능
보고서는 생성형 AI에 대한 자본 지출이 미국 자본 시장에 과도한 부담이 되지는 않을 것으로 전망했다. 가장 적극적인 시나리오에서도 2030년까지 연간 4,300억 달러의 유지 비용(금리와 감가상각)은 경제 전반의 금리 및 감가상각 증가 추세에서 20% 미만을 차지할 것으로 분석됐다.
더욱이 소프트웨어 엔지니어링 분야에서 상대적으로 완만한 생산성 향상만으로도 이러한 자본 비용을 정당화할 수 있다. 미국 노동통계국에 따르면 2030년까지 미국 소프트웨어 엔지니어의 총 임금은 1조 달러를 초과할 것으로 예상된다. 이 추정치에 따르면, 생성형 AI가 평균 소프트웨어 엔지니어의 생산성을 42% 증가시키기만 해도 전체 생성형 AI 산업의 감가상각과 이자 비용을 충당할 수 있다.
FAQ
Q: 생성형 AI의 전력 소비가 왜 이렇게 많은가요?
A: 데이터센터는 자본 수익을 극대화하기 위해 공장이나 정유소처럼 24시간, 주 7일, 최대한 풀 용량에 가깝게 운영됩니다. 생성형 AI 모델 훈련과 추론에는 수많은 GPU가 필요하며, 이 하드웨어는 상당한 전력을 소비합니다. 새로운 데이터센터는 최대 1GW의 지속적인 전력을 요구할 수 있습니다.
Q: 생성형 AI의 효율성이 향상되면 전력 소비 문제가 해결될까요?
A: 딥시크의 R1 모델과 같은 효율적인 모델이 등장했지만, 이는 생성형 AI 확장을 제한하기보다 더 적극적인 배포를 촉진하는 촉매제로 작용합니다. 훈련 및 추론 비용이 감소하면 새로운 응용 분야가 확대되어 인프라 구축이 더욱 증가할 것으로 예상됩니다. 생성형 AI 효율성이 빠르게 개선되더라도 컴퓨팅 수요는 계속 증가할 전망입니다.
Q: 미국은 이러한 전력 수요 증가에 어떻게 대응해야 할까요?
A: 보고서는 적체된 상호연결 대기열 해결, 송전 시스템 확장 가속화, 허가 환경 간소화, 가스-전기 조정 문제 해결, 신규 원자력 발전소 건설 확대 등 정책 개혁이 필요하다고 제안합니다. 1970년대 중반 이후 미미한 성장에 적응해온 미국 전력 부문은 근본적인 변화가 필요합니다.
해당 리포트의 원문은 링크에서 확인할 수 있다.
기사는 클로드와 챗GPT를 활용해 작성되었습니다.
관련 콘텐츠 더보기