Gaceta Crítica

Un espacio para la información y el debate crítico con el capitalismo en España y el Mundo. Contra la guerra y la opresión social y neocolonial. Por la Democracia y el Socialismo.

El shock del silicio es el gran tema del 2026

Nilesh Jasasni (ASIA TIMES), 7 de Enero de 2026

El mundo se ha dado cuenta de repente de que necesita convertir arena en «inteligencia» a un ritmo que desafía la física.

Imagen: LC GenInnov

A principios de la década de 2000, el mundo de las bebidas espirituosas finas se desplomó. La demanda de whisky añejo y vino fino se disparó con la nueva riqueza, nuevos compradores y un cambio cultural global. Todos lo percibieron. Pero la oferta no pudo responder, porque se había «decidido» años antes, al llenarse los barriles. Ninguna cantidad de dinero podía acelerar un calendario. El resultado fue violento. Los precios no solo subieron, sino que se desvincularon de la realidad. 

Hoy caemos en la misma trampa. Pero esta vez no se trata de bienes de consumo de lujo. Se trata del sustrato fundamental de la economía moderna.

Se trata del silicio.

Estamos presenciando una crisis de silicio. Está ocurriendo ahora mismo. Está ocurriendo a una escala que hace que la crisis del whisky parezca un error de redondeo. Y a diferencia de las crisis petroleras de la década de 1970, impulsadas por embargos de suministro, esta crisis se debe a una explosión feroz e inquebrantable de la demanda.

El mundo se ha dado cuenta repentinamente de que necesita convertir arena en «inteligencia» a un ritmo que desafía la física. La demanda de computación, en concreto, del silicio de alto rendimiento necesario para procesar tokens de IA, no ha aumentado ni un 50 % ni un 100 %. Dependiendo de cómo se mida el «token», la unidad fundamental del pensamiento de IA, la demanda se ha multiplicado por 40 y por 100 en los últimos 18 meses.

La demanda de computación, en concreto, del silicio de alto rendimiento necesario para procesar tokens de IA, no ha aumentado ni un 50 % ni un 100 %. Dependiendo de cómo se mida el «token», la unidad fundamental del pensamiento de IA, la demanda se ha multiplicado por 40 y 100 en los últimos 18 meses.

Una síntesis creíble estima que los tokens mensuales oscilarán entre ~40 billones (2024) y ~4 cuatrillones (finales de 2025), o aproximadamente ~100 veces. Incluso si se elimina el titular y se utiliza una combinación más conservadora, el rango se sitúa entre ~40 y 60 veces (combinación anualizada), con picos máximos más altos.

La cadena de suministro no puede sostenerse. Se está desmoronando. Las obleas, la memoria y el empaquetado avanzado que transforma el silicio bruto en aceleradores de IA no pueden responder a las fluctuaciones de la demanda, medidas en décadas por trimestre. Construir una nueva fábrica lleva de 3 a 5 años. Expandir la producción de memoria de alto ancho de banda lleva de 2 a 3 años. Añadir capacidad de empaquetado avanzado lleva de 18 a 24 meses. Tras agotar la capacidad disponible y reducir los inventarios a niveles críticos, el mundo ha llegado a un punto en el que los cuellos de botella se multiplican. 

La narrativa de que se trata de una «burbuja financiera» ignora una realidad mucho mayor. Incluso si todas las iniciativas sospechosas o los trucos contables se revirtieran instantáneamente, la explosión de la demanda tiene poco que ver con sus actividades. 

De forma extremadamente simplista, lo que mostramos a continuación es que si los tokens aumentaron aproximadamente 100 veces y la eficiencia mejoró aproximadamente 20 veces, aún se obtendría una demanda neta de silicio de aproximadamente 5 veces en los niveles más avanzados de lógica y memoria. Además, la base de suministro en los puntos críticos de cuello de botella creció aproximadamente entre 1,5 y 2 veces. La realidad, cada vez más evidente, es que las líneas de empaquetado avanzadas de TSMC y las instalaciones de producción de memoria de los tres fabricantes ya están completamente reservadas para 2026, y ante la continua demanda parabólica, buscan pagar precios más altos para reducir la cola.

Así pues, entramos en 2026 con un déficit de silicio que ni el dinero, ni la política, ni la ingeniería inteligente pueden resolver. La suerte está echada. La escasez ha llegado. Y al igual que las crisis petroleras del pasado, el impacto está a punto de extenderse desde el centro de datos a tu portátil, tu teléfono y tu cartera. Ambas revelan la misma vulnerabilidad: una profunda dependencia de cadenas de suministro concentradas e inelásticas para los insumos económicos fundamentales. Además, la crisis del silicio podría resultar más persistente, ya que el suministro previsto no parece ni remotamente capaz de satisfacer la creciente demanda, incluso ahora. 

La explosión de tokens: la IA abandona el chat

La razón principal por la que el mercado ha calculado mal la gravedad de este shock es un malentendido fundamental de qué es lo que está consumiendo el silicio.

Durante la mayor parte de 2023 y 2024, el modelo mental para la demanda de IA fue la interacción a velocidad humana: un usuario escribe una instrucción en un chatbot. El chatbot responde. La transacción finaliza. Esta relación lineal de un humano por consulta creó una curva de demanda predecible, aunque pronunciada.

Esa era terminó. A finales de 2025, la naturaleza de la carga de trabajo cambió radicalmente. Pasamos de los chatbots a los agentes, y de la coincidencia de patrones al razonamiento.

La nueva carga de trabajo dominante es la «IA agente». Estos sistemas no esperan una señal. Funcionan en bucles continuos y autónomos, planificando, ejecutando, verificando y corrigiendo. Una sola instrucción humana («Planificar una campaña de marketing») puede desencadenar una cascada de miles de pasos de inferencia internos, funcionando 24/7, invisibles para el usuario, pero exigentes para el hardware.

Al mismo tiempo, la integración de IA en superficies “predeterminadas”, desde Google Search y Microsoft Office hasta WeChat o resúmenes en cada aplicación, ha convertido miles de millones de interacciones triviales y de bajo consumo de recursos en tareas de inferencia pesadas y de alto consumo de recursos.

ADVERTENCIA METODOLÓGICA: LAS ESTIMACIONES QUE SE PRESENTAN A CONTINUACIÓN IMPLICAN UNA INCERTIDUMBRE SUSTANCIAL. EL CONTEO DE TOKENS NO ESTÁ ESTANDARIZADO ENTRE LOS PROVEEDORES; LOS «TOKENS DE RAZÓN» PUEDEN INCLAR LOS VOLÚMENES EN RELACIÓN CON LOS «TOKENS DE SALIDA»; LAS INFORMACIONES CHINAS PUEDEN NO SER DIRECTAMENTE COMPARABLES CON LAS MÉTRICAS OCCIDENTALES; Y LA GENERACIÓN DE DATOS SINTÉTICOS DESDIFUMINA LA LÍNEA ENTRE ENTRENAMIENTO E INFERENCIA. PRESENTAMOS AMPLIOS RANGOS EN TODO EL EJERCICIO Y RECONOCEMOS QUE ANALISTAS RAZONABLES PODRÍAN LLEGAR A CIFRAS DIFERENTES UTILIZANDO DISTINTAS SUPUESTOS. Dicho esto, las conclusiones sobre el crecimiento explosivo de la demanda, el déficit estructural de la oferta y los efectos en cascada de los precios se corroboran con evidencia observable del mercado: capacidad agotada, racionamiento y aumentos de precios de tres dígitos. Los rangos deben interpretarse como guías aproximadas de magnitud, no como estimaciones precisas.

El cambio en la intensidad del cómputo

Los tokens «invisibles» son los que rompen la cadena de suministro. Cuando un modelo de razonamiento «piensa» durante 20 segundos antes de responder, está consumiendo capacidad de silicio que simplemente no existía hace dos años. Cuando Google cambió sus Vistas Generales de IA de Búsqueda a modelos mejorados por razonamiento, aplicó inferencia de alto consumo computacional a más de 4 mil millones de consultas diarias. Una sola decisión convirtió búsquedas de palabras clave de bajo costo en tareas generativas de alto costo. Si multiplicamos esto por Copilot de Microsoft en Office, la IA de Meta en WhatsApp, Intelligence de Apple en iOS y los agentes de Tencent en WeChat, la demanda agregada se vuelve astronómica.

Seleccione ejemplos de cómo los casos de uso de IA están explotando fuera de los chats

Algunos observadores podrían desestimar la crisis del silicio como el exceso de una burbuja de IA o la sobreinversión de los hiperescaladores que buscan rentabilidades especulativas, destinadas a desplomarse cuando el ROI no se materialice. Esta crítica no comprende la naturaleza de la demanda. Lo que las tablas anteriores resaltan es que esta escasez no se debe a la acumulación especulativa de centros de datos vacíos con financiación barata. Se trata de la carga de inferencia operativa de usuarios reales que generan tokens reales en aplicaciones reales. Incluso si una parte del gasto de capital de los hiperescaladores resulta excesiva, la demanda subyacente de inferencia sigue creciendo. La IA no es un producto que se abandonará cuando la financiación se estreche; se está convirtiendo en infraestructura, integrada en el ritmo operativo de miles de millones de flujos de trabajo. 

La matemática de las fichas: cuantificando lo imposible

Intentar cuantificar esta explosión requiere navegar a través de una niebla de datos confidenciales, pero las señales que se filtran de los hiperescaladores son consistentes y aterradoras.

Los datos internos de Google ofrecen la visión más clara de la magnitud del impacto. A principios de 2024, su procesamiento mensual de tokens era manejable. A finales de 2025, gracias a la implementación de Gemini en las búsquedas y Workspace, las cifras se dispararon.

Seleccione ejemplos de la trayectoria de la demanda de tokens (según dónde esté disponible la información)

[Fuente: derivado de las divulgaciones de Google I/O 2025, las transcripciones de ganancias del tercer trimestre de 2025 de Microsoft y los informes de 36Kr].

Las matemáticas son brutales. Incluso si eliminamos los valores atípicos y asumimos una tasa de crecimiento conservadora para toda la industria, estamos viendo un aumento de entre 30 y 50 veces en la demanda bruta. La infraestructura física para soportar esto no existe.

Crecimiento de tokens por capa de demanda (tasa de ejecución mensual)

El deflactor de capacidad: por qué 100x demanda ≠ 100x silicio

Un contraargumento común es que el hardware se está volviendo más eficiente. Este es el «deflactor de capacidad». Si la demanda de tokens se multiplicó por 50 o 100 y el mundo no colapsó, ¿cuánto  crecimiento real  del silicio se requirió? La respuesta radica en la acumulación de ganancias de eficiencia entre hardware y software.

Por ejemplo, es cierto que un chip Nvidia Blackwell (B200) es significativamente más eficiente que el H100 de la generación anterior. Ofrece más tokens por vatio y por dólar. Las optimizaciones de software, como la cuantificación, la decodificación especulativa y la mezcla de expertos (MoE), también han extraído un mayor rendimiento del silicio existente.

Las ganancias derivadas de estas mejoras de eficiencia son, por sí solas, impresionantes. Cada nuevo chip de NVIDIA o AMD, por ejemplo, merece todos los elogios que recibe por las eficiencias multiplicativas que genera. 

Sin embargo, ante un crecimiento de la demanda de 100 veces, una ganancia de eficiencia de 20 veces también sería extremadamente insuficiente. Simplemente retrasa lo inevitable unos meses. Esta es la paradoja de Jevons —la observación de que aumentar la eficiencia con la que se utiliza un recurso puede conducir a un aumento, en lugar de una disminución, del consumo total de dicho recurso—, pero con esteroides: a medida que la computación se vuelve más barata y eficiente, encontramos exponencialmente más maneras de usarla.

Estimaciones de mejoras de capacidad, también conocidas como deflactor de capacidad

Estas ganancias son reales y sustanciales. Pero la eficiencia sigue siendo un factor deflactor, no una solución. 

Nos hemos topado con un muro físico de cuellos de botella inflexibles. El cuello de botella no se limita a los chips. Se trata de un fallo complejo e interconectado de tres tecnologías específicas que no se pueden escalar de la noche a la mañana: memoria de alto ancho de banda (HBM), empaquetado avanzado CoWoS y capacidad de fundición.

Los puntos críticos de la cadena de suministro (estado de 2026)

La realidad para 2026 es simple: no existe capacidad. Las fábricas necesarias para resolver este problema aún no se han construido. Lo que se está planeando para los próximos años, por ahora, tampoco es suficiente si el crecimiento de la demanda se mantiene en la misma trayectoria.

El efecto cascada: la economía vampírica

La parte más insidiosa del shock de silicio es el efecto cascada. Dado que la demanda de IA es prácticamente infinita e inelástica en cuanto a precios (los hiperescaladores pagarán cualquier cosa para asegurar el suministro), la industria de semiconductores ha racionalizado toda su línea de producción para atender a la IA.

Samsung y SK Hynix están convirtiendo activamente sus líneas de producción de memoria de consumo estándar (DDR4/DDR5) a HBM. Este es el «efecto vampiro»: la IA está absorbiendo la energía del resto del mercado de la electrónica.

El resultado es una escasez de los chips «aburridos» que se usan en portátiles, teléfonos y coches. Los precios de la RAM estándar se disparan porque las obleas se utilizan para la IA.

El mecanismo de cascada

Los niveles de inventario de DRAM de la industria se redujeron de 13 a 17 semanas a finales de 2024 a tan solo 2 a 4 semanas para octubre de 2025. Estamos en plena crisis. No queda margen de maniobra. Dado que la memoria consume entre el 15 % y el 20 % de los costes de la lista de materiales de los dispositivos (frente al 8 % o 9 % del año pasado), los fabricantes de equipos originales (OEM) se enfrentan a decisiones imposibles: subir los precios, reducir las especificaciones o reducir los márgenes a cero.

Respuestas de los OEM al aumento del coste de la memoria. 

El coro ejecutivo: advertencias desde la primera línea

En las últimas semanas de 2025, los rumores se convirtieron en gritos. Ejecutivos de todo el sector del hardware comenzaron a lanzar duras advertencias a sus socios e inversores. Ya no ocultan el problema; lo están poniendo en precio.

Las advertencias de los altos ejecutivos (solo noviembre o diciembre de 2025)

La aceleración de las vacaciones: 2026 comienza con fuego

Los acontecimientos ocurridos durante el reciente periodo vacacional no han hecho más que confirmar que la bola de nieve se está acelerando. Cualquier esperanza de que el final del año traiga consigo un periodo de reflexión se ha desvanecido tras una serie de actualizaciones críticas.

Por ejemplo, informes confirman que Nvidia ha recibido la aprobación para exportar el chip H200 a China. Esto supone una inyección masiva de demanda. Cada H200 requiere seis pilas de HBM3E. Según informes, NVIDIA está cumpliendo con los pedidos iniciales a partir de su inventario, pero se está poniendo en contacto con TSMC para aumentar la producción. Esto agota cualquier suministro puntual de HBM3E restante, lo que aprieta aún más el cinturón para 2026.

Fuentes indican que Samsung y SK Hynix se preparan para cambiar la producción a la HBM4 de próxima generación a finales de 2026. Esto crea una peligrosa brecha de suministro de HBM3E. Con el cierre de las líneas para su reequipamiento, el suministro del estándar actual (HBM3E), utilizado por el H200 de Nvidia y el TPU v7 de Google, se contraerá justo cuando la demanda alcance su pico. Esto ha animado a los proveedores a aumentar los precios de HBM3E en aproximadamente un 20 % para los contratos de 2026, una medida prácticamente insólita para un producto en proceso de maduración.

El shock petrolero del siglo XXI

Mientras seguíamos prestando atención a los expertos que hablaban sobre la sobreinversión en IA y a los pesimistas que señalaban las encuestas sobre la desgana de los consumidores o la industria hacia la IA, algo explotó casi 50, o quizás 100 veces. La explosión no parte de una base baja. Hace dieciocho meses, los preocupados ya planteaban una pregunta de 600 000 millones de dólares. 

Como comentamos en nuestro artículo  La tecnología está muerta tal como la conocemos,  en la sección titulada “El hardware está muerto tal como lo conocemos”, el procesamiento de IA no puede realizarse en nuestros dispositivos actuales, como teléfonos móviles o computadoras portátiles; se están convirtiendo en terminales tontas para los nuevos procesos, casi como calculadoras cuando uno tenía que hacer el trabajo de hojas de cálculo. 

La crisis lleva tiempo desarrollándose, y ahora parece que está alcanzando su punto álgido. En absoluto. Podríamos ser los primeros en comparar la crisis del silicio con la del petróleo con una tabla como la de abajo, y probablemente no seremos los últimos. Sin embargo, la cuestión no es reconocer este fenómeno, sino el hecho de que va a empeorar significativamente durante al menos dos años.

Se podría elaborar una larga lista de factores que demuestran que ambos son completamente diferentes, o si cualquier crisis de precios o disponibilidad de productos tecnológicos podría ser tan grave como la que experimentó la generación de los 70. Lo que se está volviendo innegable es que nos enfrentamos a una crisis de la cadena de suministro que se parece menos a un ciclo tecnológico y más a un shock geopolítico de recursos con importantes implicaciones macro y microeconómicas. 

Se ha oído mucho hablar del bloqueo eléctrico o de la escasez de energía en los centros de IA en los últimos trimestres. Estos son, hasta cierto punto, problemas solucionables mediante el ingenio humano o medidas regulatorias drásticas. No se nos ocurre ninguna solución medianamente decente para la crisis de silicio en la que se ha sumido el mundo. 

Puede que el silicio sea o no el nuevo petróleo, pero el shock del silicio tiene el potencial de ser un tema dominante a nivel macroeconómico, político y de mercado en 2026.

Nilesh Jasani es el fundador y director ejecutivo de GenInnov Pte Ltd Singapur. Este artículo se publicó originalmente en http://www.geninnov.ai

Deja un comentario

Acerca de

Writing on the Wall is a newsletter for freelance writers seeking inspiration, advice, and support on their creative journey.