Gaceta Crítica

Un espacio para la información y el debate crítico con el capitalismo en España y el Mundo. Contra la guerra y la opresión social y neocolonial. Por la Democracia y el Socialismo.

Irán y la IA

PLN (Codice Rosso -Italia-), 23 de Marzo de 2026

CÓMO SE IMPLEMENTÓ LA ESTRATEGIA ERRÓNEA DE ESTADOS UNIDOS A TRAVÉS DE LA IA

Actualmente, es bien sabido que la IA es el arma principal de cualquier ejército, especialmente en escenarios complejos y adaptativos como el actual, y aún más para Estados Unidos. Sin embargo, la simulación por IA de la crisis del Ormuz, que está asfixiando a EE. UU., parece haber sido mal concebida, provocando una grave crisis estratégico-militar para el país. ¿Cómo se llegó a esta situación? Hay varios factores a considerar.

La planificación de la Operación Furia Épica no se basó en un único modelo, sino en una doble vía de simulación: la tecnológico-operativa, confiada a la IA, y la estratégico-geopolítica, desarrollada por grupos de expertos durante los últimos diecisiete años.

Tecnológicamente, el núcleo del sistema residía en la integración del modelo Claude de Anthropic y la plataforma Gotham de Palantir. Claude procesó decenas de miles de documentos persas del Cuerpo de la Guardia Revolucionaria Islámica (CGRI), conocidos por no estar clasificados, mapeó las redes de comunicación de la cúpula iraní y simuló entre diez mil y cien mil escenarios de ataque, proponiendo el orden óptimo de objetivos y los intervalos de tiempo con la mayor probabilidad de éxito. La plataforma Gotham de Palantir actuó como sistema nervioso central, integrando datos satelitales, comunicaciones interceptadas, consumo de energía e incluso las rutas de escape de emergencia de los líderes iraníes.

El sistema combinado permitió comprimir toda la cadena de ataque, el proceso de destrucción del enemigo –desde la inteligencia hasta la selección del objetivo– en un lapso de tiempo que el análisis humano jamás habría podido garantizar. Shield AI y Anduril proporcionaron los subsistemas operativos: Hive Mind para la navegación autónoma de drones en ausencia de GPS, y Lattice para la identificación de objetivos y el conocimiento de la situación.

En el plano estratégico, la Brookings Institution ya había preparado en 2009 el conjunto de herramientas conceptuales con el informe «Hacia Persia: Opciones para una nueva estrategia estadounidense hacia Irán «. El documento, elaborado por un equipo que incluía al exembajador de Estados Unidos en Israel, analistas de la CIA y asesores de seguridad nacional de cuatro presidentes, delineaba un escenario sistémico dividido en capítulos que hoy parecen una profecía: «revolución de terciopelo» mediante el apoyo a las protestas internas, «fomento del levantamiento» a través de las minorías étnicas, «golpe de Estado» con el apoyo a sectores militares disidentes, aislamiento estratégico de Irán mediante el distanciamiento de Siria y, finalmente, «incentivar o facilitar que Israel ataque».

A esto se sumaron los análisis de escenarios elaborados por el Middle East Forum en los días previos al ataque, que el 27 de febrero —literalmente el día anterior— publicó un análisis detallado de las opciones de respuesta iraníes, desde el cierre del estrecho de Ormuz hasta la activación de grupos afines en Líbano y Yemen. El documento, firmado por analistas con acceso a fuentes militares, predijo con precisión la secuencia: un ataque aéreo con el objetivo de decapitar a la potencia iraní, una represalia con misiles contra bases estadounidenses en el Golfo, la participación de Hezbolá y la variable crítica del estrecho de Ormuz como «una variable que las fuerzas armadas aún no han puesto a prueba por completo«.

A pesar de su potencia informática y profundidad de análisis estratégico, el sistema ha revelado al menos tres puntos ciegos importantes que los modelos no habían detectado, y por los que Estados Unidos está pagando un alto precio sobre el terreno y en términos de guerra financiera: la resistencia del sistema de poder iraní a la desintegración; la subestimación sistemática del cierre del estrecho de Ormuz; y la velocidad de la reacción en cadena logística de seguros —véase el propio Código Rojo— , que supuso una ventaja para Irán en la guerra financiera en curso, que es paralela y está entrelazada con la guerra que se desarrolla sobre el terreno. Además, la amenaza de ocupar la isla de Kharg, para frenar las graves dificultades que Estados Unidos enfrenta debido al bloqueo de Ormuz, corre el riesgo no de resolver la situación, sino de provocar una crisis muy grave con Pekín, dado que más del 80 % del petróleo exportado a través de Kharg tiene como destino China.

Pero, ¿por qué Estados Unidos parece no haber tenido en cuenta, tanto tecnológica como estratégicamente, el escenario que se ha desarrollado: una guerra asimétrica en la que la parte militarmente más débil pone a la parte más fuerte en una situación de dificultad estratégica?

Las fuentes disponibles sugieren que las simulaciones no predijeron el cierre de Ormuz debido a una combinación de sesgos cognitivos humanos, limitaciones estructurales de los modelos predictivos y, probablemente, una indicación implícita desde arriba para favorecer escenarios que mantuvieran abierta esa opción.

La explicación mejor documentada proviene de fuentes de la administración citadas por CNN y The New Republic: los funcionarios admitieron tácitamente ante el Congreso que no habían previsto el peor escenario posible: el cierre del estrecho. El razonamiento aducido resulta sorprendente por su ingenuidad estratégica: creían que Irán consideraría esta medida más perjudicial para sí mismo que para Estados Unidos y, por lo tanto, no la llevaría a cabo.

Esto revela un primer nivel de fallo: el sesgo de la «racionalidad compartida». Los modelos de IA, entrenados con datos históricos, habían incorporado esta misma creencia que los funcionarios. En junio de 2025, durante la Operación Martillo de Medianoche, Irán respondió con misiles contra bases estadounidenses en Qatar, pero no cerró el estrecho de Ormuz. Los datos de entrenamiento indicaban: «Ataque estadounidense → represalia limitada con misiles → continuidad del tráfico». La IA proyectó la misma respuesta hacia el futuro, sin comprender el salto estratégico: Irán entendió que la verdadera palanca no son los misiles, sino la parálisis económica.

Un exfuncionario estadounidense, que trabajó bajo administraciones tanto demócratas como republicanas, fue categórico: «Planificar para prevenir este escenario —por imposible que pareciera durante mucho tiempo— ha sido un pilar fundamental de la política de seguridad nacional de Estados Unidos durante décadas. Estoy asombrado». Durante décadas, tanto la IA como los funcionarios actuales han tratado como resuelto, o imposible, precisamente el escenario considerado más probable y arriesgado por los analistas estadounidenses: el bloqueo del estrecho de Ormuz.

El plan de selección del modelo

En las semanas previas al ataque, el Pentágono había estado utilizando Claude de Anthropic para simulaciones estratégicas y análisis de inteligencia. Pero el 27 de febrero, apenas unas horas antes del ataque, Trump firmó una orden ejecutiva que obligaba a todas las agencias federales a dejar de usar Claude, calificando a Anthropic de «empresa de izquierda radical» y declarándola un «riesgo para la cadena de suministro». ¿La razón? Anthropic se negó a eliminar las salvaguardias éticas que impedían que el modelo se utilizara en operaciones letales y exigió salvaguardias contra su uso en sistemas de armas autónomos.

Esto significó que el modelo más sofisticado, aquel que había procesado decenas de miles de documentos persas y simulado hasta 100.000 escenarios, quedó relegado justo en el momento crucial. En su lugar, el Pentágono recurrió a OpenAI, cuyo director ejecutivo, Sam Altman, había accedido a prestar servicios para el análisis de documentos clasificados.

Surge la pregunta: ¿por qué descartar el modelo con mayor capacidad predictiva? Una posible respuesta es que Claude, con sus simulaciones, generaba escenarios indeseables, quizás precisamente aquellos que implicaban el cierre de Ormuz y sus catastróficas consecuencias. Sustituirlo por modelos más «adaptativos» (o simplemente menos sofisticados) pudo haber sido una decisión política, no técnica.

Las fuentes de inteligencia utilizadas

Las simulaciones no operan en el vacío: se nutren de los datos proporcionados por analistas humanos. Si la alta dirección pidió a los analistas que se centraran en ciertos escenarios y restaran prioridad a otros, la IA simplemente reflejó ese sesgo. La admisión de los funcionarios ante el Congreso —«no nos preparamos para el peor escenario posible»— sugiere que el sesgo era cultural y político, más que algorítmico.

El plan de opciones presentado al presidente

Un alto funcionario del Tesoro fue literalmente «arrancado» de una entrevista televisiva y llevado a la Sala de Situaciones. A su regreso, se le vio visiblemente afectado y ofreció garantías poco creíbles sobre el resultado de la guerra. Este episodio sugiere que algo en los planes no funcionó como se esperaba, y que las simulaciones no habían preparado a nadie para el resultado real.

Más allá de las hipótesis sobre el sesgo deliberado, existe un problema estructural que ninguna regulación de los datos de entrada puede resolver. Como se desprende de un análisis exhaustivo publicado en una plataforma china, la IA militar estadounidense tiene un talón de Aquiles: el «límite de los datos».

Los sistemas de inteligencia artificial empleados en la guerra —desde drones autónomos hasta modelos predictivos— funcionan basándose en datos históricos y parámetros predefinidos. Sus capacidades operativas (tiempos de reacción, alcances de detección, lógica de reconocimiento) están predefinidas de fábrica y no pueden actualizarse en tiempo real durante el combate.

Esto crea una paradoja: cuanto más sofisticada es la IA, más vulnerable se vuelve una vez que se exponen sus parámetros. Por ejemplo, si un dron estadounidense con un tiempo de reacción de 0,32 segundos es capturado o analizado, el enemigo puede desarrollar contramedidas con un tiempo de reacción de 0,27 segundos, dejándolo obsoleto. Por esta razón, Estados Unidos ha «congelado» el uso de gran parte de su robótica avanzada en Irán: no puede arriesgarse a que China y Rusia adquieran datos operativos.

Aplicado a las simulaciones estratégicas, esto significa que, una vez que salen de la «fábrica», los modelos predictivos trabajan con escenarios «conocidos» y comportamientos «ya observados». Irán nunca había cerrado completamente el estrecho de Ormuz en respuesta a un ataque estadounidense. No había datos con los que entrenar la predicción. La IA no podía «imaginar» una acción que no estuviera ya en sus archivos.

La ironía reside en que la IA estadounidense contaba con las herramientas para imaginar escenarios no lineales. Claude, en particular, fue diseñada con arquitecturas de «razonamiento» avanzadas que permiten explorar posibilidades incluso en ausencia de datos históricos. Sin embargo, fue precisamente ese modelo el que se descartó por razones políticas y comerciales. El fracaso tecnológico y político de los escenarios de simulación estadounidenses no es, por lo tanto, un error técnico, sino político y epistemológico, acelerado por una tecnología, la IA, que rápidamente sumió a Irán en la destrucción y a Estados Unidos en un atolladero. Los modelos de simulación algorítmica, los escenarios de los grupos de expertos y las decisiones políticas trataron la guerra como un problema lineal de optimización de objetivos, cuando en realidad era un ecosistema complejo de bucles de retroalimentación, emergencias y puntos de inflexión. Todo esto también pasa por la IA, y debemos ser conscientes de ello. Naturalmente, existe otra IA que comprendió perfectamente lo que estaba sucediendo: la vinculada a la guerra financiera, entendida como la extracción de beneficios en mercados relacionados con la crisis. Y esto ocurre dentro de la división capitalista del trabajo más clásica. La lección más profunda es que la IA entrenada para destruir valor (IA militar) no logró predecir la crisis, mientras que la IA entrenada para capturar valor (IA financiera) la anticipó correctamente. La diferencia no radica en la capacidad de procesamiento, sino en la arquitectura cognitiva: la primera busca la confirmación de sus planes, la segunda busca anomalías que puedan generar ganancias. En un sistema complejo, dentro de la división capitalista del trabajo, esta última resulta más eficaz.

Como señala un comentarista estadounidense, «cada incidente militar local se considera ahora un indicador de riesgo sistémico, capaz de modificar el comportamiento de los inversores». La IA financiera comprendió que Ormuz no era un problema militar, sino un nodo en una red global de interdependencias. Atacar ese nodo desencadenaría reacciones en cadena que ningún modelo lineal podría capturar. Y basó sus estrategias de rentabilidad en esas reacciones en cadena.

Libros relacionados:

La guerra
Un mundo sin guerras. Domenico Losurdo
¿Hacia la tercera guerra mundial?
Sobre la guerra

   

Deja un comentario

Acerca de

Writing on the Wall is a newsletter for freelance writers seeking inspiration, advice, and support on their creative journey.