5년 AI 슈퍼사이클과 마이클 버리의 귀환 – 전례 없는 기술 호황이 마주한 오래된 재무에 관련 질문
References
Nvidia Corporation, Annual Reports 2020–2025
Microsoft, Meta, Alphabet, Amazon, Oracle – Capex Disclosures 2022–2025
Bloomberg, Financial Times, WSJ, Business Insider reports (2024–2025)
U.S. SEC Filings – Scion Asset Management (2025)
JP Morgan Global Data Center and Compute Outlook (2024–2025)
BBIU internal analyses (2023–2025): AI Capex Supercycle, Structural Overbuild Risk, and Cognitive Infrastructure Saturation
Executive Summary
지난 5년 동안 글로벌 AI 부문은 설비투자(capex)의 가속, 연산 자원의 희소성, 밸류에이션 인플레이션으로 정의되는 전례 없는 확장 사이클에 진입했다. 이 글은 먼저 그 확장의 구조적 맥락—물리적 한계, 재무적 왜곡, 회계적 블라인드 스폿—을 정리한 뒤, 감가상각 사기를 비판하고 AI 복합체 전체에 대해 수십억 달러 규모의 숏 포지션을 구축한 마이클 버리의 논지를 평가한다.
Five Laws of Epistemic Integrity
Truthfulness of Information (정보의 진실성)
인용된 모든 데이터는 주요 기업 공시(10-K, 10-Q, 실적 발표 콜), 감사를 거친 설비투자 공시, 신뢰할 수 있는 금융 매체에서 나온 것이다. 별도의 명시 없이 투기적 재무 추정치는 포함하지 않는다.
Source Referencing (출처 참조)
여기서 서술되는 모든 거시적 패턴은 2020년부터 2025년까지의 Nvidia, Meta, Alphabet, Microsoft, Amazon, Oracle의 공개 기업 보고서와 Bloomberg, FT, WSJ가 분석한 공시 자료에 추적 가능하다.
Reliability & Accuracy (신뢰성과 정확성)
5년간의 AI 트렌드 분석은 검증 가능한 지출 규모, 업계 차원의 하드웨어 전개 사이클, 일관된 다년 보고에 기반한다. 해석적(sector opinion) 부분은 사실(fact) 부분과 명확히 구분된다.
Contextual Judgment (맥락적 판단)
이 분석은 성장 지표뿐 아니라 하드웨어 감가상각, 과도한 설비투자, 에너지 제약, AI 수요 탄력성의 한계 등 구조적 리스크까지 평가한다. 이는 버리의 테제를 해석하기 위해 필수적이다.
Inference Traceability (추론의 추적 가능성)
각 결론은 자본 흐름 데이터, 하드웨어 수명 가정, 과거 투기 사이클(2010년대 클라우드, 1990년대 닷컴)의 시장 행태와의 비교에서 직접적으로 도출된다.
Key Structural Findings
1. “기술”의 의미를 다시 쓴 5년 가속 구간
2020년으로 되돌아가 보면, ‘인공지능’은 부차적 개념이었다. 특정 영역에서 유용하고 인상적이긴 했지만, 글로벌 경제 담론의 중심에는 한참 못 미쳤다. 기술 저널리즘의 초점은 클라우드 서비스, 구독 모델, 디지털 광고, 플랫폼 규제에 맞춰져 있었다. AI는 ‘메인 요리’가 아니라 하나의 재료에 불과했다.
이 상황은 2022년 말, 추론·요약·작성·코딩이 가능한 대화형 모델이 대중에게 가시화되면서 급격히 바뀌었다. 연구소 내부의 사일로에 갇혀 있던 혁신이 하룻밤 사이에 기업, 정치, 사회 전반에 영향을 미치는 대중 기술로 전환되었다. 그 시점부터 세계에서 가장 큰 기업들은 단 하나의 전략 축을 중심으로 자신들을 재배치하기 시작했다.
누가 연산(컴퓨테이션)을 장악하느냐가 미래를 장악한다.
주인공은 하이퍼스케일러였다. Microsoft, Alphabet, Meta, Amazon, 그리고 상대적으로 비중은 작지만 Apple까지 — 대륙 규모의 데이터센터를 건설하고, 소국에 버금가는 규모로 에너지 계약을 협상할 수 있는 기업들이다. 2023년이 되자 경쟁의 초점은 “AI를 도입하느냐 마느냐”가 아니라 “AI를 지탱하기 위해 물리 세계를 어떻게 재구성할 것인가”로 이동했다.
2. 자본의 폭발: ‘수십억’에서 상상력을 시험하는 숫자로
2023년부터 2025년까지의 기간은 기술 섹터 역사상 가장 공격적인 설비투자 확장기다.
콘크리트, 철강, 광섬유, 냉각 타워, 초고압 변전 설비, 그리고 그 무엇보다도 AI 특화 칩이 새로운 산업혁명의 필수 재료가 되었다.
주요 금융·기술 매체의 수치는 이 붐의 규모를 보여준다.
2025년 한 해에만, 빅테크 기업들은 AI 관련 인프라에 1,550억 달러 이상을 투자했으며, 연간 총 지출은 4,000억 달러를 넘어설 것으로 예상되었다.
Microsoft, Alphabet, Meta, Amazon의 2025년 설비투자 예상 규모는 합산 3,700억 달러에 달했으며, Microsoft는 분기 매출의 거의 45%를 데이터센터와 AI 하드웨어에 투입하고 있었다.
Citi는 2029년까지 하이퍼스케일러들이 최대 2.8조 달러를 지출하고, 2026년에는 연간 AI 설비투자가 5,000억 달러에 도달할 것이라고 추정한다.
이 숫자들은 전체 지역의 경제 규모에 필적한다. 그리고 이는 소프트웨어 비용이 아니라, 수명이 제한된 물리적·에너지 집약적 자산에 대한 투자다.
한편, Nvidia는 이 생태계의 중력 중심이 되었다. H100, B100 및 차세대 제품으로 대표되는 그들의 GPU는 글로벌 병목 지점이 되었고, 매출은 수백억 달러에서 과거에는 오직 석유 메이저만이 도달하던 수준으로 폭증했다.
아주 문자 그대로 말하자면, Nvidia 없이는 글로벌 AI 서사는 멈춘다.
3. 아무도 대중에게 설명하지 않은 질문: 이 인프라는 실제로 자기 자신을 상환하는가?
수년 동안, 주류 설명은 직관적이었다.
“빅테크는 오늘 AI에 막대한 비용을 쓰지만, 수익은 내일 온다.”
그러나 이 문장은 두 가지 숨겨진 가정에 의존한다.
하드웨어가 실제로 얼마나 오래 가는가.
기업이 그 비용을 시간에 따라 어떻게 인식하는가(감가상각).
회계적으로 서버는 오늘 지불한 가격만큼 “비용”으로 잡히지 않는다. 그 비용은 사용 가능한 수명에 걸쳐 나누어 인식된다.
6년에 걸쳐 감가상각하는 장비는
3년에 걸쳐 감가상각하는 동일 장비보다 손익계산서상 훨씬 더 높은 수익성을 보여준다.
현재 많은 하이퍼스케일러는 AI 관련 연산 자산의 상당 부분에 대해 사용 가능 수명을 5–6년으로 가정하고 있다.
문제는 AI 하드웨어가 과거 어떤 컴퓨팅 사이클과도 다른 속도로 노후화된다는 점이다.
Nvidia의 플래그십 칩들은 2–3년 내에 전략적 관점에서 사실상 구식이 된다.
새로운 세대의 모델은 경쟁력을 유지하기 위해 새로운 세대의 하드웨어를 요구한다.
구형 칩은 여전히 추론(inference)을 수행할 수 있지만, 고부가가치 트레이닝 워크로드에서는 점차 밀려난다.
다시 말해, AI 하드웨어의 물리적 현실과 이익을 보고하기 위해 사용되는 회계 현실 사이에는 점점 더 큰 간극이 생기고 있다.
4. 숫자를 조작하지 않고도 버블이 형성되는 방식
이것은 엔론이 아니다. 광범위한 데이터 조작의 증거는 없다. 그러나 금융사는 버블이 숫자를 조작해서가 아니라, 도전받지 않은 낙관적 가정 위에서 형성되는 경우가 많다는 것을 보여준다.
이를 단순화하면 다음과 같은 사슬이 된다.
기업은 자산의 수명을 길게 가정한다(5–6년).
연간 감가상각 비용이 낮아진다.
연간 이익이 더 높게 나타난다.
더 높은 이익은 더 높은 밸류에이션을 정당화한다.
더 높은 밸류에이션은 더 많은 설비투자를 정당화한다.
더 많은 설비투자는 무한 성장 서사를 강화한다.
각 층은 그 아래에 있는 가정이 보이지 않는 상태로 유지된다는 전제에 의존한다. 대중이 AI를 “마법”으로 낭만화하고, 투자자들이 오직 지수 성장만을 본다면, 그 서사를 지탱하는 회계적 비계(scaffolding)는 대부분 주목받지 않는다.
그러나 이미 여러 시장 분석가들이 경고 신호를 제기하기 시작했다. AI 설비투자 슈퍼사이클이 워낙 거대하다 보니, 밸류에이션 모델이 명확한 실현 매출 성장보다는 회계 가정에 더 크게 의존하기 시작했다는 것이다.
바로 이 지점에서 마이클 버리가 다시 등장한다.
5. 마이클 버리의 귀환: 익숙한 인물에게서 나온 새로운 경고
마이클 버리는 단순한 컨트라리언 투자자가 아니다. 그는 서브프라임 모기지 시장에 대한 분석을 통해 현대 금융사에서 가장 유명하고 정확한 예측 가운데 하나를 남긴 인물이다.
2025년 말, 버리는 계산된 강도의 비판과 함께 다시 전면에 등장했다.
하이퍼스케일러들이 AI 하드웨어의 사용 가능 수명을 과대평가하고 있으며, 그 결과 전반적인 이익이 부풀려지고 있다.
그의 공개 발언(주로 X에 게시된 글)에 따르면:
Meta, Oracle, Microsoft, Alphabet, Amazon 같은 기업들은 비현실적으로 긴 감가상각 스케줄을 적용하고 있다.
경쟁적인 AI 연산의 실제 유효 수명은 6년이 아니라 2–3년에 가깝다.
보다 현실적인 감가상각이 적용된다면, 2026년부터 2028년까지의 이익은 약 1,760억 달러 정도 과대 계상되어 있는 셈이다.
일부 기업들(Oracle과 Meta)의 경우, 10년 말까지 이익 왜곡이 20–27%에 이를 수 있다.
버리는 이것을 현대판 “이익 사기(earnings fraud)”라고 부른다. 숫자를 조작해서가 아니라, 가정 자체가 현실의 기술 사이클과 단절되어 있기 때문이다.
6. 말뿐이 아니다: 버리는 AI 복합체 전체에 10억 달러 규모의 내기를 걸었다
버리의 테제에 무게를 실어주는 것은, 그가 실제 자본으로 이를 뒷받침했다는 점이다.
Scion Asset Management를 통해 그는 풋옵션—주가가 하락할 때 이익을 내는 포지션—을 매입했는데, 그 대상은 AI 붐의 가장 상징적인 승자 두 곳이었다.
글로벌 AI 연산 공급의 쐐기돌인 Nvidia
수익성보다는 서사에 밸류에이션이 더 크게 좌우되는 경우가 잦은 소프트웨어 기업 Palantir
이 포지션들의 명목 가치는 11억 달러를 넘는다.
이는 상징적인 제스처가 아니다. AI 시장의 구조 전체에 대한 직접적인 도전이다.
반응은 즉각적이고 양극화되었다.
Palantir의 CEO인 Alex Karp는 공개적으로 버리를 “미친(bats-t crazy) 사람”이라고 일축했다.
애널리스트들은, 버리가 구조적 결함을 포착했다고 믿는 진영과, 변혁적 장기 트렌드에 너무 일찍 반기를 든 것이라고 보는 진영으로 갈라졌다.
시장은 어느 날은 공포 쪽으로, 다른 날은 도취 쪽으로 기울며 흔들렸다.
그러나 핵심 포인트는 그대로였다. 버리는 AI의 붕괴를 예측하는 것이 아니다. AI 경제가 어떻게 표현되고 있는지를 다시 쓰게 될 것이라고 예측하는 것이다.
7. 버리가 옳다면 벌어질 시나리오
버리의 분석이 맞다면, 그 파급은 Nvidia나 Palantir를 훨씬 넘어선다.
핵심적인 결과는 다음과 같다.
여러 주요 기술 기업들의 이익 전망 하향 조정
보다 보수적인 감가상각 스케줄이 적용되면서 밸류에이션 멀티플 압축
AI 인프라 설비투자 능력의 감소
현재의 데이터센터 건설 광풍의 중단 또는 둔화 가능성
닷컴 시절 통신 인프라 과잉, 셰일 붐 이후와 유사한 자본 사이클 조정
이것은 AI를 죽이지 않는다. 죽는 것은 AI가 기본적인 경제 원리를 초월할 수 있다는 환상이다.
8. 버리가 틀렸을 경우의 시나리오
반론 역시 타당하다.
구형 칩도 수년간 매출을 창출하는 추론 업무를 수행할 수 있다.
AI에 대한 수요가 너무 빨리 성장하여, 트레이닝에는 ‘구식’인 하드웨어조차 경제적 수명이 길어질 수 있다.
인프라의 상당 부분(부동산, 냉각, 네트워킹)은 실제로 10년 이상 유지된다.
시장은 역사적으로 기술적으로는 옳았지만 너무 일찍 움직인 컨트라리언에게 가혹했다.
미래는 결국, 경제적 수요가 인프라 공급을 따라잡는지 여부—아직 해소되지 않은 그 비율—에 의해 결정될 것이다.
9. 이 논쟁이 투자 이상의 의미를 갖는 이유
버리의 개입이 갖는 의미는 금융 시장을 훨씬 넘어간다.
그것은 사회가 AI의 눈부신 부상 뒤에 숨겨진, 말해지지 않은 진실과 마주하도록 강제한다.
AI는 단순한 돌파구 기술이 아니다.
AI는 에너지 요구, 교체 주기, 그리고 이 붐의 지속 가능성을 좌우하는 재무 가정을 가진 자본 집약적 산업 시스템이다.
AI 혁명을 지탱하는 회계 프레임워크가 지나치게 낙관적인 것으로 드러난다면, 그 후폭풍은 다음 전 영역으로 파급된다.
공적 연금 펀드
국부펀드
국가 전력망
기업 R&D 예산
글로벌 공급망
노동시장
이것은 공매도에 관한 이야기가 아니다.
지능(intelligence)을 대규모로 구축하는 진짜 비용이 제대로 가격화되었는지에 대한 이야기다.
10. 투기자가 아니라 시민으로서 버리의 경고를 읽는 법
대중은 버리를, 영화 「빅 쇼트(The Big Short)」의 렌즈—시스템에 맞서는 고독한 분석가—를 통해 해석하는 경향이 있다. 그러나 2008년의 진짜 교훈은 “버리를 매번 믿어라”가 아니다.
시스템이 자기 회계 속도를 넘어서는 속도로 성장할 때, 결국 누군가는 그것을 눈치챈다.
오늘날의 AI 붐은 정확히 그 교차점에 서 있다.
혁명적 기술
과열된 자본 사이클
대중에게 보이지 않는 회계 가정들
기본적인 재무 메커니즘을 가리는 강력한 서사
버리가 시장 차원에서 옳든 그르든, 그의 비판은 다음 10년이 반드시 답해야 할 구조적 질문을 드러낸다.
AI 혁명은 건전한 경제 기반 위에 세워져 있는가, 아니면 아무도 도전하지 못한 회계적 낙관주의 위에 세워져 있는가?
그의 10억 달러짜리 베팅은 그 질문을 가장 큰 소리로 던지는 방식일 뿐이다.
ANNEX 1 — THE PHYSICAL INFRASTRUCTURE BEHIND ARTIFICIAL INTELLIGENCE
인공지능 뒤에 있는 물리적 인프라
GPU, AI 서버, 그 비용과 감가상각에 대한 기술적 서술
1. 현대 AI가 특수 하드웨어를 필요로 하는 이유
대부분의 공적 논의는 인공지능을 알고리즘, 모델, 소프트웨어 인터페이스 차원에서 다룬다. 그러나 지난 5년간의 결정적인 진전은 소프트웨어만으로 이루어진 것이 아니다. 초당 엄청난 수의 수치 연산을 수행할 수 있는 특수 하드웨어의 급속한 확장에 의존해 왔다.
이 하드웨어 스택의 중심에는 GPU(Graphics Processing Unit)가 있다.
원래 GPU는 이미지 렌더링을 가속하기 위해 설계되었지만, 이후 일반 목적 수치 연산 가속기로 진화했다. 전통적인 CPU와 구분되는 점은 단순한 속도가 아니라 아키텍처에 있다.
GPU에는 수천 개의 작은 연산 코어가 포함되어 있다.
이 코어들은 동일 연산을 많은 데이터 요소에 동시에 수행하도록 설계되어 있다.
이를 대규모 병렬 연산(massively parallel computation)이라고 한다.
현대 AI 모델, 특히 대형 신경망은 근본적으로 행렬·텐서 연산 위에 구축된다. 모델 학습은 거대한 행렬을 반복적으로 곱하고 더한 뒤, 모델 파라미터를 업데이트하는 과정을 포함한다. 이 연산들은
고도로 반복적이며
대량 데이터 배치 전체에서 패턴이 유사하고
병렬 실행에 매우 적합하다.
CPU도 이런 연산을 수행할 수 있지만, 효율성은 훨씬 떨어진다. GPU는
행렬 연산에서 훨씬 더 높은 처리량,
달러당 더 나은 성능,
해당 워크로드에서 와트당 더 나은 성능
을 제공한다. 이 때문에 대규모 AI 시스템은 표준 서버 CPU가 아니라 GPU에 의존한다.
2. 현대 AI GPU의 실제 구성
Nvidia H100이나 B100 같은 하이엔드 AI GPU는 단순한 부품이 아니다. 여러 핵심 요소가 통합된 고도로 엔지니어링된 모듈이다.
주요 요소는 다음과 같다.
수백억 개의 트랜지스터를 포함하는 프로세서
프로세서 인접에 실장되어 매우 빠른 데이터 접근을 제공하는 HBM(High Bandwidth Memory) 칩
여러 GPU가 극히 낮은 지연과 높은 대역폭으로 통신할 수 있게 하는 고속 인터커넥트
GPU당 700–1000와트 전력을 공급할 수 있는 전원 공급 설계
고밀도 서버 설치를 위한 기계·열 설계
주요 특성:
연산 성능: 부동소수점 연산(FLOPS)으로 측정되며, AI 특화 포맷(FP8, FP16 등)에서 GPU당 수십 페타플롭스에 도달할 수 있다.
메모리 대역폭: HBM은 초당 테라바이트 단위의 대역폭을 제공하며, 이는 컴퓨트 유닛에 데이터를 공급하는 데 필수적이다.
인터커넥트 대역폭: NVLink 등 고속 링크는 여러 GPU가 하나의 조정된 유닛처럼 동작하도록 한다.
이런 장치를 제조하려면
첨단 반도체 공정(예: 4–5nm 노드),
2.5D 또는 3D 통합 같은 패키징 기술,
TSMC/삼성, HBM 공급업체, 기판 제조사 등 다수 공급업체와의 협업,
긴 리드타임
이 필요하다. 그 결과 공급은 제약되고, 단가가 매우 높게 유지된다.
3. 왜 단일 GPU로는 충분하지 않은가: 부품이 아니라 시스템이다
현대 AI 모델을 학습하고 서비스하는 작업은 개별 GPU에 의존하지 않는다. 모델이 단일 GPU 메모리에 담기에는 너무 크고, 합리적인 시간 안에 학습을 끝내기에는 단일 장치의 연산 능력으로 부족하다.
대형 모델을 실용화하기 위해 GPU는 시스템 수준에서 결합된다.
멀티 GPU 서버
표준 AI 서버는 4개, 8개 또는 그 이상의 GPU를 포함할 수 있다.
이 GPU들은 고속 링크로 연결되고, CPU·시스템 메모리·스토리지를 공유한다.
랙(Rack)
여러 서버가 하나의 랙에 장착되고, 랙 상단 스위치를 통해 연결된다.
클러스터(Cluster)
다수의 랙이 네트워크로 연결되어, 수천 개의 GPU에 걸쳐 단일 모델을 학습할 수 있는 클러스터를 형성한다.
이 구조가 효율적으로 동작하려면 다음 조건이 충족되어야 한다.
GPU 간 통신이 빠르고 예측 가능해야 한다.
네트워크 패브릭이 높은 처리량과 낮은 지연을 제공해야 한다.
하드웨어·소프트웨어 스택(드라이버, 라이브러리, 통신 프레임워크)이 세심하게 최적화되어야 한다.
전력과 냉각이 지속적인 고부하 워크로드를 뒷받침할 수 있어야 한다.
네트워크, 냉각, 전력, 소프트웨어 중 어느 하나라도 과소 설계되면 전체 성능은 크게 떨어지고, 학습 시간은 경제성이 떨어지는 수준으로 늘어난다.
4. 실무 관점에서 본 AI 서버란 무엇인가
AI 서버는 여러 GPU를 탑재하고 이를 거의 최대 용량으로 유지하기 위해 설계된 특수 목적 머신이다.
최상위 AI 트레이닝 서버의 전형적 구성은 다음과 같다.
GPU: Nvidia H100, H200, B100 또는 유사 장치 8개
CPU: I/O, 오케스트레이션, 비-GPU 작업을 처리하는 서버급 프로세서 1–2개
시스템 메모리(RAM): 워크로드에 따라 1–4TB 수준
스토리지: 학습 데이터 및 체크포인트 캐싱을 위한 수 TB의 NVMe SSD
네트워킹: 고속 패브릭 연결을 위한 다수의 400G 또는 800G NIC
전력: 서버당 5–10kW 수준의 소비 전력
냉각: 지속적인 부하에서 안정적 동작을 유지하기 위한 공랭 또는 수랭 시스템
물리적 특성:
데이터센터 내에서 여러 랙 유닛을 차지한다.
강력한 랙 전원 분배 장치(PDU)가 필요하다.
지속적으로 제거해야 하는 막대한 열을 발생시킨다.
이는 전통적인 웹·애플리케이션 서버와 비교할 수 있는 수준이 아니다. 비용과 운용 강도 모두 훨씬 높다.
5. 비용 구조: 개별 GPU에서 풀 클러스터까지
5.1 GPU 1개당 대략적 비용(2024–2025년 범위)
Nvidia H100: 25,000–40,000달러
Nvidia H200: 30,000–45,000달러
Nvidia B100 / Blackwell: 30,000–70,000달러
Nvidia GB200(Grace–Blackwell 시스템): 모듈당 100,000달러 이상
가격은 물량, 공급 제약, 통합 수준에 따라 달라진다.
5.2 AI 서버(8 GPU)의 대략적 비용
GPU 8개, CPU, 메모리, 스토리지, 기본 네트워킹을 포함한 베이스 서버:
→ 약 25만–40만 달러고급 네트워킹, 최적화된 인터커넥트, 데이터센터 통합까지 포함:
→ 약 40만–60만 달러더 고가의 차세대 GPU를 사용하는 신형 아키텍처:
→ 약 60만–80만 달러 이상
5.3 트레이닝 클러스터 1개당 대략적 비용(예: 1,024 GPU)
다음과 같이 가정했을 때:
GPU만: 1,024 × 약 35,000달러 ≈ 3,500만–4,000만 달러
서버, 랙, 전력 분배, 냉각 인프라: 약 1,500만–2,500만 달러
네트워크 스위치, 광섬유, 고속 인터커넥트 패브릭: 약 2,000만–3,000만 달러
통합, 엔지니어링, 배포 비용: 약 500만–1,000만 달러
→ 클러스터 1개당 총 비용: 구성이나 벤더 계약에 따라 약 7,500만–1억 달러 이상.
하이퍼스케일 기업들은 이런 클러스터를 하나만 구축하는 것이 아니라, 여러 개를 여러 지역의 데이터센터에 반복적으로 구축한다.
6. 왜 AI 연산 하드웨어 수명이 전통 서버보다 훨씬 짧은가
AI 하드웨어는 전통적인 엔터프라이즈 서버보다 훨씬 빠르게 실질적인 효용을 잃는다. 주요 요인은 다음과 같다.
모델 규모 성장
새로운 모델은 더 많은 파라미터와 더 큰 컨텍스트 윈도우를 가진다.
GPU당 더 많은 메모리와 더 높은 인터커넥트 대역폭이 필요하다.
구형 GPU는 종종 메모리 용량이나 인터커넥트 성능이 부족하다.
와트당 성능 향상
각 GPU 세대는 전 세대에 비해 와트당 성능이 크게 향상된다.
구형 하드웨어를 계속 운용하는 것은 신규 장비 대비 경제성이 빠르게 떨어진다.
네트워크 진화
AI 클러스터는 100G에서 400G, 800G 그 이상으로 이동 중이다.
구형 하드웨어를 새로운 네트워크 패브릭에 통합하면 병목이 발생할 수 있다.
소프트웨어·프레임워크 최적화
특정 데이터 포맷, 스패시티(sparsity) 기능 등 새로운 아키텍처는 최신 하드웨어에서 더 잘 지원된다.
구형 GPU는 최신 성능 최적화와 호환되지 않을 수 있다.
그 결과, 실제 사용 가능 기간은 대략 다음과 같이 나타난다.
최전선(Frontier) 트레이닝 경쟁력: 약 18–30개월
비-최전선 트레이닝 관련성: 최대 약 3년
추론 및 2차 워크로드: 최대 약 4–5년
5년 이후: 고부가 AI 문맥에서는 제한적인 경제적 유용성
이는 일반 서버에 자주 적용되는 5–6년 사용 가능 수명 가정보다 훨씬 짧다.
7. 감가상각: 회계가 하드웨어 수명을 표현하는 방식
감가상각은 기업이 하드웨어 비용을 시간에 따라 배분하는 방식이다.
예를 들어,
서버 1대 가격이 50만 달러라고 하자.
이를 5년에 걸쳐 감가상각하면:
연간 감가상각비 = 50만 / 5 = 10만 달러
3년에 걸쳐 감가상각하면:
연간 감가상각비 ≈ 50만 / 3 ≈ 16만 6,667달러
두 스케줄 모두, 사용 가능 수명에 대한 가정을 정당화할 수 있다면 법적으로 허용된다. 하지만, 선택에 따라 보고되는 이익에는 큰 차이가 발생한다.
Microsoft, Alphabet, Amazon, Meta, Oracle 같은 하이퍼스케일러는 일반적으로
서버의 사용 가능 수명을 5년으로 설정하고,
자산군과 내부 정책에 따라 6년까지 연장하기도 한다.
AI 특화 하드웨어의 급속한 노후화를 고려할 때, 다음 질문이 자연스럽게 제기된다.
특히 고가의 AI GPU와 관련 인프라에 대해, 현재 감가상각 스케줄은 실제 경제적 사용 수명과 일치하는가?
만약 하드웨어가 실제로 주요 용도에서 경쟁력을 유지하는 기간이 2–3년에 불과하다면, 5–6년 감가상각 스케줄은 연간 비용을 과소 계상하고 이익을 과대 계상하는 셈이 된다.
8. 경제적 불일치: 물리적 현실 vs. 회계 현실
현재 AI 부문은 다음과 같은 가정 위에서 운영된다.
하드웨어는 5–6년에 걸쳐 자본화 후 감가상각될 수 있다.
AI 서비스는 해당 기간 동안 충분한 매출을 창출해 설비투자를 상환하고 이익을 낼 것이다.
AI 수요의 성장은 계속 높게 유지되어, 기존 인프라가 잘 활용될 것이다.
그러나 물리적·기술적 현실은 다음을 시사한다.
GPU는 18–30개월 내에 최상위 경쟁력을 잃는다.
에너지·냉각 제약은 추가 확장을 제한할 수 있다.
새로운 모델 아키텍처는 이전 세대 하드웨어가 지원하지 않는 기능을 요구할 수 있다.
AI 매출의 상당 부분은 극소수 공급자에게 집중될 수 있으며, 이는 경쟁 압력을 강화한다.
감가상각 스케줄이 계속 낙관적인 반면 하드웨어 사이클이 짧게 유지된다면,
영업이익은 과대 계상되고,
현실적인 교체 체계 아래에서의 마진보다 더 강하게 보이며,
단기적으로 자유현금흐름은 장기적으로 지속 가능한 수준보다 건강해 보일 수 있고,
감가상각 가정이 강제로 조정될 경우 밸류에이션은 큰 영향을 받게 된다.
바로 이 간극이, 버리와 같은 비판자들이 AI 투자 사이클 분석에서 겨냥하는 지점이다.
9. AI 경제에서 감가상각이 핵심 변수가 되는 이유
이 맥락에서 감가상각은 사소한 회계 디테일이 아니다. 그것은 AI 구축이 투자자와 규제기관에 어떻게 제시되는지를 결정하는 핵심 변수다.
사용 수명을 길게 가정하면:
이익이 더 높게 보인다.
투자자본수익률(ROIC)이 더 강하게 보인다.
경영진은 지속적·가속적 설비투자를 정당화할 수 있다.
시장 밸류에이션은 유지되거나 확대될 수 있다.
사용 수명을 현실적으로 단축 조정하면:
이익이 감소한다.
자본 집약성이 훨씬 심각하게 보인다.
설비투자 속도를 늦추거나 프로젝트 타당성을 재평가해야 하는 압력이 커진다.
시장은 해당 기업들을 재평가한다.
실무적으로 감가상각은
물리적 층( GPU, 서버, 전력, 냉각, 데이터센터 )과
금융 층( 손익계산서, 현금흐름표, 시가총액 )
을 연결하는 고리다.
이 연결이 비현실적 타임라인에 기반한다면, AI 투자 서사 전체가 재평가에 취약해진다.
10. 요약: 하드웨어와 감가상각을 이해하는 것이 왜 필수적인가
공적 논쟁은 종종 AI를 순수한 디지털·소프트웨어 혁신으로 묘사한다. 현실은 다르다.
AI는 고도로 특수화되고 극도로 비싼 하드웨어에 의존한다.
이 하드웨어가 최대 경제적 유용성을 가지는 기간은 짧다.
이 하드웨어는 대규모 전력을 소비하고 상당한 자본을 요구하는 데이터센터 안에 위치한다.
그 하드웨어를 회계적으로 어떻게 표현하는지(감가상각)는 보고되는 이익과 밸류에이션에 강하게 영향을 미친다.
2023–2025년의 AI 확장이 경제적으로 지속 가능한지 이해하려면, 모델이나 애플리케이션을 분석하는 것만으로는 충분하지 않다. 필수적인 것은 다음을 이해하는 것이다.
GPU와 AI 서버의 비용과 수명,
이 하드웨어를 얼마나 자주 교체·업그레이드해야 하는지,
기업이 이 비용을 시간에 따라 회계상 어떻게 배분하는지.
하드웨어 사이클이라는 물리적 현실과 감가상각이라는 금융 표현이 정렬될 때에만, 투자자·규제기관·대중은 현재 AI 인프라 붐의 장기적 지속 가능성을 정확하게 평가할 수 있다.
ANNEX 2 — STRUCTURAL CONSOLIDATION IN THE AI INDUSTRY
AI 산업의 구조적 통합
왜 아마존·구글·마이크로소프트·메타만이 장기 AI 인프라를 유지할 수 있는가
1. 서론
현대 인공지능은 대규모 물리적·재무적 자원을 요구한다. 초기의 가정과 달리, AI 개발은 소프트웨어 스타트업이나 앱 회사와 비슷하지 않다. 그것은 매우 높은 고정비와 빠른 하드웨어 교체 주기를 가진 중공업 섹터에 더 가깝게 작동한다.
그 결과, 장기적으로 대규모 AI 개발을 감당할 수 있는 자원을 가진 기업은 극소수에 불과하다.
이 부록은 왜 아마존(Amazon), 구글(Google), 마이크로소프트(Microsoft), 메타(Meta)만이 이러한 환경에서 지속적인 참여가 가능한지, 그 기저 요인을 설명한다.
2. AI는 인프라 집약적 산업이다
프론티어 AI 모델을 개발·배포하려면 다음과 같은 대규모 물리 시스템이 필요하다.
수만 개의 특수 프로세서(GPU 또는 TPU)
고밀도 데이터센터
장기 에너지 공급 계약
글로벌 광섬유 네트워크
산업 규모의 냉각 시스템
대규모 데이터 스토리지 클러스터
새로운 하드웨어에 대한 지속적인 재투자
이러한 요구사항은 통신, 반도체 제조, 국가 전력망과 같은 산업에서 발견되는 진입장벽과 비슷한 수준이다.
이 장벽은 일시적인 것이 아니다. 모델 규모 증가, 소비전력 상승, 하드웨어 사이클 가속화로 인해 해마다 더 커지고 있다.
3. 생존을 좌우하는 고정비
3.1 하드웨어 비용
프론티어 모델을 학습하려면 다음이 필요하다.
수만 개의 GPU
GPU당 25,000–70,000달러의 비용
추가로 서버, 네트워크 스위치, 통합 비용
최상위 트레이닝 클러스터 1개는 5억–10억 달러까지 비용이 들 수 있다.
하드웨어는 속도와 메모리 측면의 급속한 개선으로 인해 대략 2–3년마다 구식이 된다.
3.2 에너지 비용
AI 데이터센터는 대규모 안정적 전력 공급을 요구한다. 하나의 트레이닝 런이 수백만 kWh를 소모할 수 있다. 장기 전력 계약과 전용 전력 인프라는 운영을 유지하기 위해 필수적이다.
3.3 데이터센터 인프라
AI 워크로드는 다음을 요구한다.
특수 설계된 냉각
전용 랙 디자인
이중화(redundancy) 시스템
고속 인터커넥트
일반 클라우드보다 훨씬 높은 서버 밀도
신규 데이터센터 캠퍼스를 건설하는 데 드는 비용은 10억–30억 달러 수준이다.
3.4 인재와 R&D
경쟁력 있는 AI 연구를 유지하려면 다음이 필요하다.
수백 명의 고도로 특화된 엔지니어·과학자
장기 개발 사이클
독점 데이터셋 접근
클라우드·하드웨어·보안 팀과의 강력한 내부 조정
3.5 지속적인 재투자
AI 기업은 18–36개월마다 하드웨어를 교체하거나 확장해야 한다. 이는 매년 수십억 달러 규모의 반복적 지출 요구를 의미한다.
어떤 스타트업이나 중견 기업도 이 의무를 지속적으로 감당할 수 없다.
4. 순수 AI 기업이 장기적으로 경쟁할 수 없는 이유
OpenAI, Anthropic, Mistral, Palantir와 같은 기업들은 다음을 통제하지 못한다.
자체 연산 인프라
에너지 공급
데이터센터 네트워크
클라우드 환경
칩 제조업체와의 공급망 관계
이들은 Amazon, Google, Microsoft(간혹 Oracle)의 리소스를 임대한다.
이 의존성은 순수 AI 기업을 구조적으로 취약하게 만든다.
비용 구조가 예측 불가능하다.
하드웨어 대량 구매에 따른 가격 협상력이 없다.
대규모 장기 에너지를 확보할 수 없다.
마진은 얇거나 변동성이 크다.
성장은 클라우드 크레딧이나 보조금에 의존하는 경우가 많다.
AI 수요가 둔화되면 버틸 수 있는 대체 매출원이 없다.
여러 사업 라인에 하드웨어를 분산 감가상각할 수 없다.
하이퍼스케일러 수준의 감가상각 사이클을 감당할 수 없다.
하드웨어 요구사항이 증가할수록, 이들의 비용 구조는 점점 더 지속 불가능해진다.
5. 왜 Amazon, Google, Microsoft, Meta는 AI를 유지할 수 있는가
이 네 기업은 순수 AI 기업이 가지지 못한 구조적 우위를 보유한다.
5.1 다각화된 매출원
이들은 다음과 같은 안정적 다중 수익원을 갖는다.
클라우드 서비스
광고
엔터프라이즈 소프트웨어
소비자 플랫폼
하드웨어
구독 상품
이 덕분에 이들은 핵심 비즈니스를 위협하지 않고도 여러 해에 걸친 AI 관련 손실을 흡수할 수 있다.
5.2 글로벌 데이터센터
이 기업들은 이미 전 세계적으로 수천 개의 데이터센터를 운영하고 있다. 이 인프라의 일부를 AI에 전용하고, 필요에 따라 확장할 수 있다.
5.3 장기 에너지 계약
이들은 유틸리티와 직접 협상하여 다음을 확보한다.
재생에너지 공급
전력망 인터커넥트
전용 송전선
향후 용량 예약
이러한 통제는 비용을 낮추고, 가용성을 보장한다.
5.4 공급망 우선권
Nvidia 등 반도체 제조사는 크고 안정적인 대량 고객을 우선시한다. 그 결과 이들은 다음에 대한 우선 접근권을 가진다.
차세대 GPU
네트워킹 장비
초기 프로토타입
더 나은 가격 조건
5.5 기존 제품과의 통합
AI는 다음과 같은 기존 제품을 강화한다.
검색(Search) — Google
광고(Ads) — Meta, Google
클라우드(Cloud) — Microsoft, Amazon
오피스/Windows — Microsoft
이커머스 — Amazon
이들은 AI 매출에만 의존하지 않는다.
5.6 하드웨어 재배치 능력
AI 수요가 둔화되면, 하이퍼스케일러들은 GPU를 다음과 같은 다른 워크로드로 재배치할 수 있다.
클라우드 추론 인프라
비디오 처리
데이터베이스 가속
내부 자동화
순수 AI 기업은 이런 재배치 옵션을 갖지 못한다.
6. 왜 하드웨어 기업들이 AI를 지배하지 못할 것인가
Nvidia, AMD, Broadcom, Intel과 같은 기업들은 핵심 부품을 제조하지만, 다음을 통제하지 못한다.
사용자 플랫폼
클라우드 환경
엔터프라이즈 소프트웨어 생태계
소비자 애플리케이션
데이터 파이프라인
이들은 AI를 가능하게 만드는 공급자이지만, 애플리케이션이나 배포 레벨에서 AI를 운영하지 않는다.
그 결과 이들은
AI 시장을 직접적으로 설계·지배할 수 없고,
수요 창출을 통제하지 못하며,
매출 안정성을 위해 하이퍼스케일러에 의존한다.
즉, 필수 공급자이긴 하지만, 장기적인 플랫폼 소유자는 아니다.
7. 통합의 경로
AI는 다음 분야에서 이미 관찰된 것과 동일한 통합 경로를 따를 것이다.
클라우드 컴퓨팅(AWS, Azure, GCP)
모바일 운영체제(iOS, Android)
검색(Google)
온라인 광고(Google, Meta)
엔터프라이즈 소프트웨어(Microsoft)
이커머스 물류(Amazon)
각 산업은 초기에는 다수의 경쟁자로 시작했지만, 결국 규모의 경제를 감당할 수 있는 소수 기업으로 통합되었다.
AI는 자본 요구가 워낙 크기 때문에, 이와 동일한 전환을 더 빠른 속도로 겪고 있다.
8. 장기 결과: 지속 가능한 AI 운영자는 네 곳뿐이다
인프라 소유, 재무 역량, 공급망 접근, 매출 다각화 측면에서, 2030년 이후까지 대규모 AI 개발을 지속적으로 감당할 수 있는 기업은 사실상 다음 네 곳뿐이다.
Amazon
Google
Microsoft
Meta
이 기업들은 다음을 모두 보유하고 있다.
지속적인 재투자를 가능케 하는 재무 자원
전 세계적으로 AI를 배포할 수 있는 물리 인프라
고밀도 워크로드를 지탱할 수 있는 에너지 공급
AI를 배포할 수 있는 클라우드 플랫폼
AI를 수익화할 수 있는 방대한 사용자 기반과 엔터프라이즈 고객군
대규모 운영을 감당할 수 있는 정치·규제 프로파일
이 모든 조건을 동시에 충족하는 기업은 이들 외에 없다.
9. 결론
프론티어 규모의 AI 개발은 더 이상 소프트웨어 산업이 아니다. 그것은 극도로 높은 고정비, 빠른 감가상각, 막대한 에너지 수요를 가진 인프라 산업이다.
글로벌 클라우드 인프라, 방대한 자본 저수지, 다각화된 매출 기반을 가진 기업만이 이 환경을 버틸 수 있다.
그 결과, 장기적인 AI 통합은 네 곳의 운영자를 중심으로 안정화될 것이다.
Amazon
Google
Microsoft
Meta
이들 밖의 기업은 혁신하거나, 특화 솔루션을 제공하거나, 니치 영역에서 영향력을 행사할 수는 있어도, 독립적인 대규모 AI 개발을 장기적으로 유지할 수는 없다.