La velocidad y la magnitud de la guerra impulsada por la IA están superando las normas diseñadas para proteger tanto a civiles como a combatientes militares.
Craig Jones y Helen M. Kinsella (THE CONVERSATION Y ASIA TIMES), 19 de Marzo de 2026

La guerra entre Estados Unidos e Israel contra Irán ha sido descrita como «la primera guerra de IA». Pero los recientes despliegues de inteligencia artificial son, de hecho, los últimos de una larga historia de desarrollos tecnológicos que priorizan la rapidez en la «cadena de ataque» militar.
“Sesenta segundos, eso fue todo lo que hizo falta”, afirmó un exagente del Mossad israelí sobre los ataques que mataron al líder supremo de Irán , el ayatolá Ali Khamenei, el 28 de febrero de 2026, el primer día de la guerra entre Estados Unidos e Israel contra Irán.
La velocidad y la magnitud de la guerra se han visto significativamente incrementadas por el uso de sistemas de IA . Sin embargo, esta necesidad de rapidez conlleva graves riesgos tanto para los civiles como para los combatientes militares.
Las operaciones militares modernas generan y dependen de una enorme cantidad de inteligencia. Esto incluye llamadas telefónicas y mensajes de texto interceptados, la vigilancia masiva de internet (conocida como «inteligencia de señales»), así como imágenes satelitales y transmisiones de video de drones en vuelo. Podemos considerar toda esta inteligencia como datos, y el problema es que hay demasiados.
Ya en 2010, la Fuerza Aérea de EE. UU. estaba preocupada por «nadar en sensores y ahogarse en datos». Demasiadas horas de grabación y demasiados analistas revisando manualmente esta información.
Los sistemas de IA pueden acelerar drásticamente el análisis de la inteligencia militar. Brad Cooper, jefe del Comando Central de Estados Unidos (CentCom), confirmó recientemente el uso de herramientas de IA en la guerra contra Irán, diciendo :
Estos sistemas nos ayudan a analizar grandes cantidades de datos en segundos, para que nuestros líderes puedan filtrar la información irrelevante y tomar decisiones más inteligentes con mayor rapidez que la capacidad de reacción del enemigo. Las herramientas avanzadas de IA pueden convertir procesos que antes tardaban horas, e incluso días, en cuestión de segundos.
En 2024, una investigación de la Universidad de Georgetown descubrió que el 18.º Cuerpo Aerotransportado del Ejército de los Estados Unidos había empleado inteligencia artificial para ayudar en el procesamiento de inteligencia, reduciendo un equipo de 2000 personas a tan solo 20.
El atractivo de la velocidad
Durante la Segunda Guerra Mundial, el ciclo de selección de objetivos aéreos —desde la recopilación de imágenes hasta el ensamblaje de paquetes de objetivos completos con informes de inteligencia— podía durar semanas o incluso meses .
Pero durante las décadas siguientes, el ejército estadounidense se dedicó a lo que denominó «comprimir la cadena de ataque» : acortar el tiempo entre la identificación de un objetivo y el uso de la fuerza contra él.
Durante la primera guerra del Golfo en 1991, el presidente iraquí Saddam Hussein utilizó lanzadores de misiles móviles que recorrían el desierto disparando misiles Scud. Para cuando el radar estadounidense identificaba su ubicación, el lanzador podía estar a kilómetros de distancia. Esta táctica de «disparar y huir» requería nueva tecnología para rastrear estos objetivos móviles.

Un avance clave se produjo poco después de los ataques del 11 de septiembre en forma de un dron Predator armado .
En noviembre de 2002, la CIA atacó y eliminó al líder de Al Qaeda en Yemen, Qaed Salim Sinan al-Harithi. Esto marcó el comienzo de una nueva era de guerra en la que drones pilotados desde bases militares en Estados Unidos sobrevolaban a distancia los cielos de Yemen, Somalia, Pakistán, Irak, Afganistán y otros lugares.
Las potentes cámaras de los drones podían grabar vídeo de alta resolución y transmitirlo a Estados Unidos vía satélite en cuestión de segundos, lo que permitía a los operadores rastrear objetivos móviles. El mismo dron que tenía el objetivo a la vista podía disparar misiles para eliminarlo o destruirlo.
A mayor velocidad, mayor riesgo.
Hace dos décadas, era fácil descartar como una hipérbole la idea de que la inminente era de la guerra cibernética pudiera traer consigo «bombardeos a la velocidad del pensamiento», una frase acuñada por el historiador estadounidense Nick Cullather en 2003. Sin embargo, con la llegada de la guerra basada en IA, lo impensable se ha vuelto casi obsoleto.
Parte del impulso para emplear herramientas de IA se basa en la percepción de que el pensamiento humano no puede competir con la velocidad de procesamiento que ofrecen los sistemas de IA. La estrategia de inteligencia artificial del Departamento de Defensa de EE. UU. afirma: «La IA militar será una carrera contrarreloj en el futuro previsible, por lo que la velocidad será clave… Debemos aceptar que los riesgos de no actuar con la suficiente rapidez superan los riesgos de una alineación imperfecta».
Si bien el uso preciso de la IA por parte de los ejércitos de Estados Unidos y otros países está rodeado de secretismo, se ha hecho pública información que pone de manifiesto los riesgos de su uso en poblaciones civiles.
En Gaza, según fuentes de inteligencia israelíes, los sistemas de IA Lavender y Gospel han sido programados para aceptar hasta 100 bajas civiles (y ocasionalmente incluso más) por un ataque contra un solo presunto combatiente de Hamás. Se estima que más de 75.000 personas han muerto allí desde el 7 de octubre de 2023.
En febrero de 2024, un ataque aéreo estadounidense acabó con la vida de Abdul-Rahman al-Rawi, un estudiante de 20 años. En aquel momento, un alto funcionario estadounidense admitió que los ataques habían utilizado inteligencia artificial para la selección de objetivos ; sin embargo, de forma confusa, el ejército estadounidense afirma ahora que «no tiene forma de saber» si utilizó IA en ataques aéreos específicos.
El riesgo reside en que la IA podría reducir el umbral o el coste de ir a la guerra, a medida que las personas desempeñan un papel cada vez más pasivo a la hora de revisar y aprobar sin objeciones el trabajo de la IA .
La integración de la IA en las cadenas de ataque militares coincide con otros acontecimientos alarmantes. Tras años de inacción, el ejército estadounidense dedicó más de una década a desarrollar una infraestructura para evitar bajas civiles en la guerra, pero esta ha sido desmantelada casi por completo bajo la administración Trump.
Los abogados que asesoran a los militares sobre operaciones de selección de objetivos, incluido el cumplimiento del derecho internacional y las reglas de enfrentamiento, han sido apartados y despedidos .
Mientras tanto, desde el inicio de la guerra en Irán, más de 1200 civiles han muerto, según el Ministerio de Salud iraní. El 28 de febrero, el ejército estadounidense atacó una escuela primaria en el sur de Irán, causando la muerte de al menos 175 personas, la mayoría niños.
El secretario de Defensa de Estados Unidos, Pete Hegseth, ha dejado claro que el objetivo del ejército en Irán es lograr la máxima letalidad, no una legalidad tibia. Un impacto violento, no algo políticamente correcto.
Con esa actitud, y al priorizar la rapidez sobre la reflexión, las bajas civiles se vuelven inevitables y la rendición de cuentas cada vez más difícil de alcanzar.
Craig Jones es profesor titular de geografía política en el Departamento de Geografía de la Universidad de Newcastle , y Helen M Kinsella es profesora de ciencias políticas y derecho en el Departamento de Ciencias Políticas de la Universidad de Minnesota.
Deja un comentario