EL SUPER-CICLO DE LA IA DE CINCO AÑOS Y EL REGRESO DE MICHAEL BURRY

Cómo un auge tecnológico sin precedentes se encontró con una vieja pregunta financiera

Referencias

Nvidia Corporation, Informes Anuales 2020–2025
Microsoft, Meta, Alphabet, Amazon, Oracle – Declaraciones de Capex 2022–2025
Bloomberg, Financial Times, WSJ, Business Insider (2024–2025)
U.S. SEC Filings – Scion Asset Management (2025)
JP Morgan, Global Data Center and Compute Outlook (2024–2025)
Análisis internos de BBIU (2023–2025): AI Capex Supercycle, Structural Overbuild Risk, Cognitive Infrastructure Saturation

Resumen Ejecutivo

Durante los últimos cinco años, el sector global de inteligencia artificial ingresó en un ciclo de expansión sin precedentes, definido por aceleración del gasto de capital (capex), escasez de cómputo y una inflación pronunciada de valuaciones.
Este artículo establece el contexto estructural de esa expansión —sus límites físicos, distorsiones financieras y puntos ciegos contables— antes de evaluar la crítica de Michael Burry sobre el fraude de depreciación y sus posiciones cortas multimillonarias contra el complejo de la IA.

Cinco Leyes de Integridad Epistémica

Veracidad de la Información

Todos los datos citados provienen de presentaciones corporativas primarias (10-K, 10-Q, earnings calls), declaraciones verificadas de capex y medios financieros reputados. No se incluyen proyecciones especulativas sin indicarlo explícitamente.

Referencia de Fuentes

Cada patrón macro descrito es rastreable a informes públicos de Nvidia, Meta, Alphabet, Microsoft, Amazon, Oracle, y a análisis de Bloomberg, FT y WSJ entre 2020 y 2025.

Confiabilidad y Precisión

El análisis de tendencias de cinco años se basa en cifras verificables de gasto, ciclos de despliegue de hardware a nivel industrial y reportes consistentes de varios años. Las secciones interpretativas están claramente separadas de las secciones fácticas.

Juicio Contextual

El análisis evalúa no solo métricas de crecimiento, sino riesgos estructurales: depreciación del hardware, sobreextensión de capex, restricciones energéticas y límites de elasticidad de la demanda de IA —todos necesarios para interpretar la tesis de Burry.

Trazabilidad de Inferencias

Cada conclusión deriva directamente de evidencia de flujos de capital, supuestos sobre ciclos de vida del hardware y comportamiento comparativo de ciclos especulativos previos (cloud en los 2010s, dot-com en los 1990s).

Hallazgos Estructurales Clave

1. Los cinco años que reconfiguraron el significado de “tecnología”

En 2020, “inteligencia artificial” era un concepto secundario: útil, impresionante en aplicaciones específicas, pero lejos de ser el eje central de la conversación económica global.
La prensa tecnológica giraba en torno al cloud, modelos de suscripción, publicidad digital y regulación de plataformas.
La IA era un ingrediente, no la receta principal.

Eso cambió abruptamente a finales de 2022, cuando los modelos conversacionales —capaces de razonar, resumir, escribir, programar— se volvieron visibles para el público general. Lo que había sido una innovación encapsulada dentro de laboratorios se transformó de la noche a la mañana en una tecnología masiva con implicaciones corporativas, políticas y sociales.
Desde ese momento, las mayores empresas del mundo se reorientaron alrededor de un único eje estratégico:

Quien controlara el cómputo, controlaría el futuro.

Los protagonistas fueron los hyperscalers —Microsoft, Alphabet, Meta, Amazon, y en menor medida Apple— empresas lo bastante grandes para construir centros de datos del tamaño de continentes y negociar contratos de energía con la escala de pequeños estados.
Para 2023, la carrera ya no era adoptar IA; era reconstruir el mundo físico para sostenerla.

2. La explosión del capital: de miles de millones a cifras que desafían la imaginación

El período 2023–2025 es la expansión de capital más agresiva en la historia del sector tecnológico.

Concreto, acero, fibra óptica, torres de enfriamiento, subestaciones de alto voltaje y—ante todo—chips especializados para IA se convirtieron en los componentes decisivos de una nueva revolución industrial.

Cifras clave provenientes de medios financieros y técnicos:

  • Solo en 2025, las grandes tecnológicas invirtieron más de 155.000 millones de dólares en infraestructura de IA; el gasto total anual iba camino a superar los 400.000 millones.

  • Microsoft, Alphabet, Meta y Amazon combinaban un capex proyectado de 370.000 millones para 2025, con Microsoft destinando casi 45% de sus ingresos trimestrales a centros de datos y hardware.

  • Citi estima que los hyperscalers pueden gastar 2,8 billones para 2029, con un capex anual cercano al medio billón para 2026.

Estas cifras rivalizan con el tamaño económico de regiones enteras.
Y no se trata de software: son activos físicos, intensivos en energía y con vida útil limitada.

Nvidia, mientras tanto, se convirtió en el centro gravitacional del ecosistema. Sus GPUs —H100, B100 y la siguiente generación— se volvieron el cuello de botella global. Su ingreso explotó hasta niveles antes reservados para gigantes petroleros.

En un sentido completamente literal: sin Nvidia, la narrativa global de IA se detendría.

3. El problema que nadie explicó al público: ¿realmente esta infraestructura se paga a sí misma?

La explicación dominante durante años fue intuitiva:
“Las big tech gastan cantidades enormes hoy porque los retornos llegarán mañana.”

Lo que nunca se explicitó es que esta afirmación depende de dos supuestos ocultos:

  1. Cuánto dura realmente el hardware.

  2. Cómo el costo se reconoce contablemente a lo largo del tiempo (depreciación).

En contabilidad, un servidor no “cuesta” lo que pagaste hoy: su costo se distribuye a lo largo de su vida útil.
Un equipo depreciado en 6 años luce mucho más rentable que el mismo depreciado en 3.

Muchos hyperscalers asumen 5–6 años de vida útil para una porción significativa de sus activos de cómputo relacionados con IA.

El problema: el hardware de IA envejece a un ritmo totalmente distinto de ciclos computacionales previos:

  • Los chips estrella de Nvidia quedan obsoletos estratégicamente en 2–3 años.

  • Nuevas generaciones de modelos requieren nuevas generaciones de hardware.

  • Los chips viejos sirven para inferencia, pero pierden relevancia en entrenamiento de alto valor.

Existe así una brecha creciente entre la realidad física y la realidad contable.

4. Cómo se forma una burbuja sin que nadie falsifique un solo número

Esto no es Enron.
No hay evidencia generalizada de manipulación.
Pero la historia muestra que las burbujas rara vez dependen de datos falsos: dependen de supuestos optimistas que no se cuestionan.

Cadena simplificada:

  • Se asumen vidas útiles largas (5–6 años).

  • La depreciación anual baja.

  • Las ganancias aparentes suben.

  • Las valuaciones suben.

  • Las valuaciones justifican más capex.

  • El capex refuerza la narrativa de crecimiento infinito.

Todo depende de que nadie examine los supuestos de base.

Este es el punto exacto donde reaparece Michael Burry.

5. El regreso de Michael Burry: una nueva advertencia desde una fuente conocida

Michael Burry no es un inversor contrarian cualquiera. Es la figura cuya lectura del mercado subprime condujo a una de las predicciones financieras más precisas de la historia moderna.

En 2025, Burry reapareció con una acusación calculada:

Los hyperscalers están sobreestimando la vida útil de su hardware de IA, inflando ganancias en todo el sector.

Según sus comentarios públicos:

  • Meta, Oracle, Microsoft, Alphabet y Amazon aplican calendarios de depreciación irrealmente largos.

  • La vida útil competitiva real es 2–3 años.

  • Si se usaran calendarios realistas, las ganancias 2026–2028 estarían sobreestimadas en ~176.000 millones.

  • Para algunas firmas (Oracle, Meta), la distorsión podría alcanzar 20–27% hacia 2030.

Burry lo describe como una forma moderna de “fraude de ganancias”, no por falsificación, sino por supuestos desconectados de los ciclos reales del hardware.

6. No es solo discurso: Burry apuesta más de mil millones contra el complejo de la IA

Lo que da peso a la tesis es que la respaldó con capital real.

A través de Scion Asset Management, compró opciones put —que ganan valor cuando bajan los precios— dirigidas contra dos símbolos del auge de la IA:

  • Nvidia, proveedor clave del cómputo global.

  • Palantir, cuya valuación depende más de narrativa que de rentabilidad.

El valor nocional supera 1.100 millones de dólares.

Las reacciones fueron inmediatas:

  • El CEO de Palantir llamó a Burry “completamente loco”.

  • Analistas se dividieron entre quienes creen que detectó un fallo estructural, y quienes piensan que está “temprano”.

Pero la clave es esta:
Burry no predice un colapso de la IA. Predice una reescritura de su economía.

7. El escenario si Burry tiene razón

Las consecuencias serían amplias:

  • Revisiones a la baja de ganancias en múltiples big tech.

  • Múltiplos de valuación comprimidos.

  • Menor capacidad de inversión en infraestructura.

  • Frenos o pausas en la construcción de data centers.

  • Un ajuste de ciclo similar al post–dot-com o al shale gas.

No destruiría la IA.
Destruiría la ilusión de que la IA puede ignorar principios económicos básicos.

8. El escenario si Burry está equivocado

Los contraargumentos son válidos:

  • Los chips viejos pueden generar ingresos en inferencia por años.

  • La demanda puede crecer tan rápido que incluso hardware “obsoleto” siga siendo útil.

  • Infraestructura como inmuebles, enfriamiento y redes sí duran una década.

  • El mercado suele castigar a los contrarios que tienen razón demasiado pronto.

El futuro dependerá de si la demanda económica alcanza al suministro de infraestructura.

9. Por qué este debate importa más allá de las inversiones

El auge de la IA no es solo una historia tecnológica.
Es una historia industrial y financiera.

Revela una verdad silenciosa:

La IA no es solo software. Es un sistema industrial intensivo en capital y energía.

Si el marco contable que sostiene la revolución es demasiado optimista, las consecuencias afectarán:

  • Fondos de pensión

  • Fondos soberanos

  • Redes energéticas nacionales

  • Presupuestos de I+D

  • Cadenas globales de suministro

  • El mercado laboral

No es una historia de “short selling”.
Es una historia sobre si el mundo ha calculado correctamente el costo real de la inteligencia a escala.

10. Leer la advertencia de Burry como ciudadanos, no como especuladores

El público suele ver a Burry a través de la lente cinematográfica de The Big Short.
Pero la lección de 2008 no fue “cree en Burry siempre”.

La lección fue:

cuando un sistema crece más rápido que su contabilidad, alguien siempre lo nota.

Hoy, el auge de la IA está exactamente en ese punto:

  • Tecnología revolucionaria

  • Ciclo febril de capital

  • Supuestos contables invisibles al público

  • Una narrativa tan fuerte que oculta la mecánica financiera básica

Sea o no correcto en términos de mercado, Burry expone una pregunta estructural que definirá la década:

¿Está la revolución de la IA construida sobre fundamentos económicos sólidos, o sobre optimismo contable que nadie quería cuestionar?

Su apuesta de mil millones es simplemente la forma más ruidosa de plantear la pregunta.

ANEXO 1 — LA INFRAESTRUCTURA FÍSICA DETRÁS DE LA INTELIGENCIA ARTIFICIAL

Una narrativa técnica sobre GPUs, servidores de IA, su costo y depreciación

1. Por qué la IA moderna requiere hardware especializado

La mayoría de las discusiones públicas sobre inteligencia artificial se concentran en algoritmos, modelos e interfaces de software. Sin embargo, el progreso decisivo de los últimos cinco años no vino solo del software. Dependió de una rápida expansión de hardware especializado capaz de ejecutar un número extremo de operaciones numéricas por segundo.

En el centro de esta pila de hardware está la GPU (Graphics Processing Unit).

Originalmente diseñada para acelerar el renderizado de imágenes, la GPU evolucionó hacia un acelerador de propósito general para cómputo numérico. Lo que la diferencia de las CPUs tradicionales no es solo la velocidad, sino la arquitectura:

  • Una GPU contiene miles de núcleos de procesamiento más pequeños.

  • Estos núcleos están diseñados para ejecutar la misma operación sobre muchos datos en paralelo.

  • Esto se conoce como cómputo masivamente paralelo.

Los modelos modernos de IA, especialmente las redes neuronales grandes, se basan de forma fundamental en operaciones de matrices y tensores. Entrenar un modelo implica multiplicaciones y sumas repetidas de matrices grandes, seguidas de la actualización de parámetros del modelo. Estas operaciones son:

  • altamente repetitivas,

  • uniformes a través de grandes lotes de datos,

  • y muy adecuadas para la ejecución en paralelo.

Las CPUs pueden realizar estas operaciones, pero de forma mucho menos eficiente. Las GPUs ofrecen:

  • un rendimiento mucho mayor para matemáticas de matrices,

  • mejor rendimiento por dólar,

  • y mejor rendimiento por vatio para este tipo de cargas.

Por eso los sistemas de IA a gran escala dependen de GPUs y no de CPUs de servidor estándar.

2. Qué son realmente las GPUs modernas de IA

Una GPU de alta gama para IA, como las Nvidia H100 o B100, no es un componente simple. Es un módulo integrado y altamente diseñado con varios elementos clave:

  • Un procesador que contiene decenas de miles de millones de transistores.

  • Chips de High Bandwidth Memory (HBM) montados muy cerca del procesador para proporcionar acceso extremadamente rápido a los datos.

  • Interconexiones de alta velocidad que permiten que múltiples GPUs se comuniquen con muy baja latencia y alto ancho de banda.

  • Sistemas de alimentación capaces de suministrar entre 700 y 1000 vatios por GPU.

  • Diseño mecánico y térmico optimizado para instalación densa en servidores.

Propiedades clave de las GPUs modernas de IA:

  • Rendimiento de cómputo: medido en FLOPS (operaciones de punto flotante por segundo), alcanzando decenas de petaflops para formatos específicos de IA (por ejemplo, FP8, FP16).

  • Ancho de banda de memoria: la HBM ofrece ancho de banda en el rango de terabytes por segundo, esencial para alimentar datos a las unidades de cómputo.

  • Ancho de banda de interconexión: tecnologías como NVLink u otros enlaces propietarios permiten que varias GPUs actúen como una unidad coordinada.

Fabricar estos dispositivos requiere:

  • procesos de semiconductores avanzados (por ejemplo, nodos de 4–5 nm),

  • tecnologías de empaquetado como integración 2.5D o 3D,

  • colaboración entre múltiples proveedores (TSMC/Samsung, fabricantes de HBM, sustratos, etc.),

  • y largos plazos de producción.

Como resultado, la oferta es limitada y los precios por unidad se mantienen muy elevados.

3. Por qué una sola GPU no basta: sistemas, no componentes

El entrenamiento y el despliegue de modelos modernos de IA no se apoyan en GPUs individuales aisladas. Los modelos son demasiado grandes para caber en la memoria de una sola GPU y requieren más cómputo del que un solo dispositivo puede proporcionar en un tiempo razonable.

Para hacer que los modelos grandes sean prácticos, las GPUs se combinan en sistemas:

Servidores multi-GPU

  • Un servidor estándar de IA puede incluir 4, 8 o más GPUs.

  • Estas GPUs están conectadas mediante enlaces de alta velocidad y comparten acceso a la CPU, memoria del sistema y almacenamiento.

Racks

  • Varios servidores se montan en un rack y se conectan mediante switches (top-of-rack).

Clusters

  • Muchos racks se interconectan para formar un clúster capaz de entrenar un único modelo sobre miles de GPUs.

Para que esto funcione de forma eficiente, deben cumplirse varias condiciones:

  • La comunicación entre GPUs debe ser rápida y predecible.

  • La red debe soportar alto throughput y baja latencia.

  • La pila hardware/software (drivers, librerías, marcos de comunicación) debe estar muy optimizada.

  • La energía y la refrigeración deben dimensionarse para cargas continuas de alta utilización.

Si cualquier parte del sistema (red, refrigeración, energía o software) está subdimensionada, el rendimiento global cae de manera significativa y los tiempos de entrenamiento se vuelven económicamente inviables.

4. Qué es un servidor de IA en términos prácticos

Un servidor de IA es una máquina diseñada específicamente para alojar múltiples GPUs y mantenerlas trabajando a o cerca de su plena capacidad. Una configuración típica para un servidor de entrenamiento de alta gama incluye:

  • GPUs: 8 Nvidia H100, H200, B100 u otros dispositivos equivalentes.

  • CPUs: 1–2 procesadores de nivel servidor para gestionar E/S, orquestación y tareas no GPU.

  • Memoria de sistema (RAM): a menudo entre 1 y 4 terabytes, según la carga.

  • Almacenamiento: varios terabytes de SSDs NVMe para caché local de datos de entrenamiento y checkpoints de modelos.

  • Red: múltiples NICs de 400G u 800G para conectar el servidor al tejido de alta velocidad.

  • Potencia: consumo combinado en el rango de 5–10 kW por servidor.

  • Refrigeración: sistemas de aire o líquido diseñados para mantener la operación estable bajo carga continua.

Características físicas:

  • Ocupa varias unidades de rack en un centro de datos.

  • Requiere unidades robustas de distribución de energía (PDUs) en el rack.

  • Genera una gran cantidad de calor que debe evacuarse de manera constante.

Este tipo de configuración no es comparable a un servidor convencional de web o aplicaciones. Tanto el costo como la intensidad operativa son significativamente mayores.

5. Estructura de costos: desde GPUs individuales hasta clústeres completos

5.1 Costo aproximado por GPU (rangos 2024–2025)

  • Nvidia H100: 25.000–40.000 USD

  • Nvidia H200: 30.000–45.000 USD

  • Nvidia B100 / Blackwell: 30.000–70.000 USD

  • Nvidia GB200 (sistemas Grace–Blackwell): 100.000+ USD por módulo

Los precios varían según volumen, restricciones de oferta e integración.

5.2 Costo por servidor de IA (8 GPUs)

  • Servidor base con 8 GPUs, CPU, memoria, almacenamiento y red básica:
    → ~250.000–400.000 USD

  • Incluyendo red avanzada, interconexión optimizada e integración en centro de datos:
    → ~400.000–600.000 USD

  • Arquitecturas nuevas con GPUs de gama superior:
    → ~600.000–800.000+ USD

5.3 Costo por clúster de entrenamiento

Ejemplo: clúster con 1.024 GPUs:

  • GPUs únicamente:
    1.024 × ~35.000 USD ≈ 35–40 millones de USD

  • Servidores, racks, distribución de energía, infraestructura de refrigeración:
    15–25 millones de USD

  • Switches de red, fibra e interconexión de alta velocidad:
    20–30 millones de USD

  • Costes de integración, ingeniería y despliegue:
    5–10 millones de USD

Total aproximado del clúster:
75–100+ millones de USD, según configuración y acuerdos con proveedores.

Los hyperscalers no construyen un solo clúster. Construyen muchos, y repiten este patrón en múltiples centros de datos y regiones.

6. Vida útil del hardware: por qué el cómputo de IA envejece más rápido que los servidores tradicionales

El hardware de IA se vuelve funcionalmente obsoleto mucho más rápido que los servidores empresariales tradicionales. Las causas principales incluyen:

Crecimiento de los modelos

  • Los nuevos modelos tienen más parámetros y ventanas de contexto mayores.

  • Requieren más memoria por GPU y mayor ancho de banda de interconexión.

  • Las GPUs antiguas a menudo no tienen suficiente capacidad de memoria ni rendimiento de red.

Mejoras en rendimiento por vatio

  • Cada generación de GPU suele ofrecer mejoras significativas en rendimiento por vatio.

  • Operar hardware antiguo se vuelve rápidamente ineficiente frente a dispositivos nuevos.

Evolución de las redes

  • Los clústeres pasan de 100G a 400G, 800G y más.

  • Integrar hardware viejo en tejidos de red nuevos puede crear cuellos de botella.

Optimización de software y frameworks

  • Nuevas arquitecturas (por ejemplo, formatos de datos específicos, sparsity) se aprovechan mejor en hardware reciente.

  • Las GPUs antiguas pueden no ser compatibles con las últimas optimizaciones.

Como resultado, los horizontes de uso práctico se parecen a:

  • Competitividad en entrenamiento de frontera: ~18–30 meses

  • Relevancia en entrenamiento no-frontera: hasta ~3 años

  • Inferencia y cargas secundarias: hasta ~4–5 años

  • Más allá de 5 años: utilidad económica limitada en contextos de IA de alto valor

Esto es significativamente más corto que los 5–6 años de vida útil que a menudo se asumen para servidores generales.

7. Depreciación: cómo la contabilidad representa la vida del hardware

La depreciación es el método mediante el cual las empresas asignan el costo del hardware a lo largo del tiempo.

Ejemplo:

  • Un servidor cuesta 500.000 USD.

Si se deprecia en 5 años:

  • Gasto anual de depreciación = 500.000 / 5 = 100.000 USD por año

Si se deprecia en 3 años:

  • Gasto anual de depreciación ≈ 500.000 / 3 = 166.667 USD por año

Ambos esquemas son legales si se justifican con supuestos sobre la vida útil. Sin embargo, la elección tiene un efecto fuerte sobre las ganancias reportadas.

Los hyperscalers como Microsoft, Alphabet, Amazon, Meta y Oracle suelen:

  • Usar vidas útiles de 5 años para servidores.

  • A veces extender a 6 años, según la clase de activo y la política interna.

Dada la obsolescencia acelerada del hardware específico de IA, surge una pregunta clave:
¿Los calendarios actuales de depreciación están alineados con la vida útil económica real, especialmente para GPUs de alto costo y la infraestructura asociada?

Si el hardware solo es competitivo 2–3 años en su función principal, un calendario de 5–6 años:

  • subestima costos anuales,

  • y sobrestima las ganancias.

8. El desajuste económico: realidad física vs. realidad contable

Actualmente, el sector de IA opera bajo estos supuestos:

  • El hardware puede capitalizarse y depreciarse en 5–6 años.

  • Los servicios de IA generarán suficiente ingreso en ese período para cubrir capex y producir beneficios.

  • El crecimiento de la demanda seguirá siendo alto, manteniendo bien utilizada la infraestructura existente.

Las realidades físicas y técnicas indican:

  • Las GPUs pierden competitividad de frontera en 18–30 meses.

  • Las restricciones de energía y refrigeración pueden limitar la expansión.

  • Nuevas arquitecturas de modelos pueden requerir funciones no soportadas por hardware previo.

  • Una porción significativa del ingreso de IA puede concentrarse en pocos proveedores, elevando la presión competitiva.

Si los calendarios de depreciación siguen siendo optimistas mientras los ciclos de hardware siguen siendo cortos, entonces:

  • El beneficio operativo se sobreestima.

  • Los márgenes parecen más sólidos de lo que serían bajo un régimen de reemplazo realista.

  • El flujo de caja libre puede lucir más saludable a corto plazo de lo que es sostenible a largo plazo.

  • Las valuaciones se vuelven muy sensibles a cualquier cambio forzado en los supuestos de depreciación.

Este es exactamente el vacío que críticos como Michael Burry señalan en su análisis del ciclo de inversión en IA.

9. La depreciación como variable central en la economía de la IA

En este contexto, la depreciación no es un detalle menor. Es central para cómo se presenta la expansión de la IA ante inversores y reguladores.

Cuando la depreciación se basa en vidas útiles largas:

  • Las ganancias se ven más altas.

  • El retorno sobre el capital invertido parece mayor.

  • La dirección puede justificar la continuación o aceleración del capex.

  • Las valuaciones pueden sostenerse o expandirse.

Cuando los supuestos de depreciación se ajustan a vidas útiles más cortas:

  • Las ganancias disminuyen.

  • La intensidad de capital aparece más severa.

  • Surge presión para frenar el capex o reevaluar proyectos.

  • El mercado repricinga a las empresas afectadas.

En la práctica, la depreciación es la conexión entre:

  • La capa física (GPUs, servidores, energía, refrigeración, centros de datos), y

  • La capa financiera (cuentas de resultados, flujo de caja, capitalización de mercado).

Si esa conexión se construye sobre cronogramas poco realistas, toda la narrativa de inversión en IA queda expuesta a una reevaluación brusca.

10. Resumen: por qué es esencial comprender hardware y depreciación

El debate público suele presentar la IA como una transformación puramente digital y de software. La realidad es distinta:

  • La IA depende de hardware altamente especializado y extremadamente costoso.

  • Este hardware tiene una ventana corta de utilidad económica máxima.

  • Reside en centros de datos que consumen grandes cantidades de energía y requieren capital sustancial.

  • La representación financiera de ese hardware (vía depreciación) afecta de forma decisiva beneficios y valuaciones.

Para evaluar si la expansión de la IA entre 2023 y 2025 es sostenible, no basta analizar modelos o aplicaciones. Es necesario:

  • comprender el costo y la vida útil de GPUs y servidores de IA,

  • comprender con qué frecuencia debe reemplazarse o actualizarse el hardware,

  • y comprender cómo las empresas deciden distribuir esos costos en el tiempo en sus cuentas.

Solo alineando la realidad física (ciclos de hardware) con la representación financiera (depreciación) podrán inversores, reguladores y el público evaluar con precisión la viabilidad de largo plazo del actual auge de infraestructura de IA.

ANEXO 2 — CONSOLIDACIÓN ESTRUCTURAL EN LA INDUSTRIA DE LA IA

Por qué solo Amazon, Google, Microsoft y Meta pueden sostener infraestructura de IA a largo plazo

1. Introducción

La inteligencia artificial moderna requiere recursos físicos y financieros a gran escala.
Contrario a las suposiciones iniciales, el desarrollo de IA no se parece a startups de software o empresas de aplicaciones. Opera más como un sector industrial pesado, con costos fijos extremadamente altos y ciclos rápidos de renovación de hardware.

Como resultado, solo un número reducido de compañías posee los recursos para sostener el desarrollo de IA a gran escala en el largo plazo.

Este anexo explica los factores subyacentes que hacen posible la participación sostenida únicamente para Amazon, Google, Microsoft y Meta.

2. La IA es una industria intensiva en infraestructura

Desarrollar y desplegar modelos de IA de frontera requiere sistemas físicos de gran tamaño, que incluyen:

  • decenas de miles de procesadores especializados (GPUs o TPUs),

  • centros de datos de alta densidad,

  • acuerdos de suministro energético de largo plazo,

  • redes globales de fibra óptica,

  • sistemas de refrigeración a escala industrial,

  • grandes clústeres de almacenamiento de datos,

  • y reinversión continua en nuevo hardware.

Estos requisitos crean barreras de entrada comparables a sectores como:

  • telecomunicaciones,

  • fabricación de semiconductores,

  • o redes eléctricas nacionales.

Estas barreras no son temporales; crecen cada año debido a:

  • modelos más grandes,

  • mayor consumo de energía,

  • y ciclos de hardware más acelerados.

3. Costos fijos que determinan quién sobrevive

3.1 Costos de hardware

Entrenar un modelo de frontera requiere:

  • decenas de miles de GPUs,

  • cada una con un costo entre 25.000 y 70.000 USD,

  • más servidores, switches de red e integración.

Un solo clúster de entrenamiento de primer nivel puede costar entre 500 millones y 1.000 millones de USD.

El hardware se vuelve obsoleto en aproximadamente 2–3 años debido a mejoras rápidas en velocidad y memoria.

3.2 Costos de energía

Los centros de datos de IA requieren suministros eléctricos grandes y estables.
Las corridas de entrenamiento pueden consumir millones de kWh.
Se necesitan contratos de energía de largo plazo e infraestructura eléctrica dedicada para mantener la operación.

3.3 Infraestructura de centros de datos

Las cargas de trabajo de IA requieren:

  • refrigeración diseñada específicamente,

  • diseños de rack especializados,

  • sistemas redundantes,

  • interconexiones de alta velocidad,

  • y densidad de servidores mucho mayor que el cloud generalista.

El costo de construir un nuevo campus de centro de datos se sitúa en el rango de 1–3 mil millones de USD.

3.4 Talento e I+D

Mantener una posición competitiva en IA requiere:

  • cientos de ingenieros y científicos altamente especializados,

  • ciclos de desarrollo largos,

  • acceso a conjuntos de datos propietarios,

  • y coordinación interna fuerte entre equipos de cloud, hardware y seguridad.

3.5 Reinversión continua

Las empresas de IA deben reemplazar o ampliar su hardware cada 18–36 meses.
Esto crea obligaciones recurrentes de gasto anual de miles de millones de dólares.

Ninguna startup o empresa mediana puede sostener estas obligaciones de forma estable.

4. Por qué las empresas “puras de IA” no pueden competir a largo plazo

Empresas como OpenAI, Anthropic, Mistral y Palantir no controlan:

  • su infraestructura de cómputo,

  • su suministro energético,

  • sus redes de centros de datos,

  • sus entornos de nube,

  • ni su relación de cadena de suministro con fabricantes de chips.

Alquilan estos recursos a Amazon, Google, Microsoft o, en menor medida, Oracle.

Esta dependencia las hace estructuralmente vulnerables:

  • Sus costos son impredecibles.

  • No pueden negociar precios de hardware a escala de volumen.

  • No pueden asegurar energía a gran escala y largo plazo.

  • Operan con márgenes finos o volátiles.

  • Su crecimiento depende del acceso a créditos de nube o subsidios.

  • No tienen ingresos de respaldo si la demanda de IA se desacelera.

  • No pueden amortizar hardware a través de múltiples líneas de negocio.

  • No pueden sostener los ciclos de depreciación que sí soportan los hyperscalers.

A medida que crecen los requisitos de hardware, su estructura de costos se vuelve cada vez más insostenible.

5. Por qué Amazon, Google, Microsoft y Meta sí pueden sostener la IA

Estas cuatro empresas tienen ventajas estructurales que las empresas puras de IA no poseen.

5.1 Ingresos diversificados

Cuentan con múltiples fuentes de ingresos estables:

  • servicios de nube,

  • publicidad,

  • software empresarial,

  • plataformas de consumo,

  • hardware,

  • productos de suscripción.

Esto les permite absorber pérdidas plurianuales en IA sin poner en riesgo su negocio central.

5.2 Centros de datos globales

Ya operan miles de centros de datos en todo el mundo.
Pueden dedicar parte de esta infraestructura a IA y ampliarla según sea necesario.

5.3 Acuerdos energéticos a largo plazo

Negocian directamente con empresas de energía para:

  • suministro renovable,

  • interconexiones de red,

  • líneas dedicadas,

  • y capacidad futura.

Este control reduce costos y asegura disponibilidad.

5.4 Prioridad en la cadena de suministro

Nvidia y otros fabricantes de semiconductores priorizan clientes grandes, estables y de alto volumen. Esto se traduce en acceso preferencial a:

  • GPUs de próxima generación,

  • equipamiento de red,

  • prototipos tempranos,

  • y mejores condiciones de precio.

5.5 Integración con productos existentes

La IA mejora productos existentes tales como:

  • Búsqueda (Google)

  • Publicidad (Meta, Google)

  • Cloud (Microsoft, Amazon)

  • Office/Windows (Microsoft)

  • E-commerce (Amazon)

Estas compañías no dependen solo del ingreso directo de IA.

5.6 Capacidad de reasignar hardware

Si la demanda de IA se ralentiza, los hyperscalers pueden reasignar GPUs a otras cargas, incluyendo:

  • inferencia en la nube,

  • procesamiento de video,

  • aceleración de bases de datos,

  • automatización interna.

Las empresas puras de IA no pueden hacer esto.

6. Por qué las empresas de hardware no dominarán la IA

Empresas como Nvidia, AMD, Broadcom o Intel fabrican componentes clave, pero no controlan:

  • plataformas de usuario,

  • entornos de nube,

  • ecosistemas de software empresarial,

  • aplicaciones de consumo,

  • ni canales de datos.

Habilitan la IA, pero no la operan en el nivel de aplicación o distribución.

Como resultado:

  • no pueden moldear directamente los mercados de IA,

  • no controlan la creación de demanda,

  • y dependen de los hyperscalers para estabilidad de ingresos.

Son proveedores esenciales, pero no dueños de plataformas de largo plazo.

7. La trayectoria de la consolidación

La IA seguirá el mismo patrón de consolidación observado en:

  • cloud computing (AWS, Azure, GCP),

  • sistemas operativos móviles (iOS, Android),

  • búsqueda (Google),

  • publicidad online (Google, Meta),

  • software empresarial (Microsoft),

  • logística de e-commerce (Amazon).

Cada uno de estos sectores comenzó con muchos competidores y terminó concentrándose en un pequeño número de empresas con capacidad estructural para operar a escala.

La IA atraviesa el mismo proceso, pero a mayor velocidad debido a sus altos requisitos de capital.

8. Resultado de largo plazo: solo cuatro operadores sostenibles de IA

Basado en:

  • propiedad de infraestructura,

  • capacidad financiera,

  • acceso a la cadena de suministro,

  • y diversificación de ingresos,

las únicas compañías capaces de sostener desarrollo de IA a gran escala hacia 2030 y más allá son:

  • Amazon

  • Google

  • Microsoft

  • Meta

Estas empresas tienen:

  • recursos financieros para reinvertir continuamente,

  • infraestructura física para desplegar IA globalmente,

  • suministro de energía suficiente para cargas de alta densidad,

  • plataformas de nube para distribuir IA,

  • bases de usuarios y clientes empresariales para monetizar IA,

  • y un perfil político/regulatorio que les permite operar a escala.

Ninguna otra empresa reúne simultáneamente todas estas condiciones.

9. Conclusión

El desarrollo de IA de frontera ya no pertenece a la industria del software en el sentido tradicional.
Es una industria de infraestructura con:

  • costos fijos extremadamente altos,

  • depreciación rápida,

  • y demandas energéticas sustanciales.

Solo las empresas con:

  • infraestructura global de nube,

  • reservas de capital masivas,

  • e ingresos diversificados,

pueden sostener este entorno.

Como resultado, la consolidación de la IA a largo plazo se estabilizará en torno a cuatro operadores:

  • Amazon

  • Google

  • Microsoft

  • Meta

Las compañías fuera de este grupo podrán innovar, especializarse o proveer soluciones de nicho, pero no podrán mantener de forma independiente un desarrollo de IA a gran escala en el largo plazo.

Previous
Previous

Ola de inflación que se aproxima en Corea (2026–2027)

Next
Next

ByHeart Recall: Cuando el Riesgo Estructural se Cruza con la Transparencia Ética