Gaceta Crítica

Un espacio para la información y el debate crítico con el capitalismo en España y el Mundo. Contra la guerra y la opresión social y neocolonial. Por la Democracia y el Socialismo.

Líneas rojas y guerra de Inteligencia Artificial (IA)

Matilda Byrne -Australia- (CONSORTIUM NEWS) 5 de febrero de 2026

Aún está por verso si la política de Australia sobre la utilización de la IA como arma consagrará la línea roja moral de delegar decisiones de vida o muerte a las máquinas, escribe Matilda Byrne.

Peligros de la IA en los «robots asesinos», artículo de la ONU, enero de 2025 (imagen del Centro Regional de Información de la ONU para Europa Occidental)

Parece que Australia se está adentrando de lleno en una guerra de inteligencia artificial no regulada y esta impactante posibilidad casi nunca llega a los medios tradicionales.

En la última década, ha habido una aceleración masiva en la militarización de la inteligencia artificial (IA).

A finales de septiembre, al dirigirse al Consejo de Seguridad de las Naciones Unidas, la ministra australiana de Asuntos Exteriores, Penny Wong, afirmó  que “las decisiones de vida o muerte nunca deben delegarse en máquinas, y juntos debemos fijar las reglas y establecer las normas”. 

El avance de la IA en armas se está produciendo en todas las áreas: aviones autónomos, drones, submarinos, tanques robot y armas.

Esto ha suscitado preocupaciones éticas, jurídicas y humanitarias, debatidas por gobiernos, la industria, expertos y la sociedad civil, pero que aún no se han abordado plenamente a nivel internacional o nacional.    

Los comentarios de Wong se hacen eco del sentimiento de un número creciente de países, funcionarios de la ONU, expertos y el público en relación con las armas autónomas.

El secretario general de la ONU ha calificado repetidamente  los sistemas de armas autónomas letales (LAWS) de “políticamente inaceptables y moralmente repugnantes”.

Sin embargo, los países altamente militarizados están avanzando con avances, en particular China, India, Israel, Rusia y los EE.UU. UU. 

Aumentar la autonomía en materia de armas conlleva el riesgo de erosionar la toma de decisiones humanas, así como de generar riesgos humanitarios y de seguridad, cuestiones que estos países y gran parte del debate general están ignorando.

El secretario general de la ONU ha calificado repetidamente  los sistemas de armas autónomas letales (SAAL) de «políticamente inaceptables y moralmente repugnantes».  Sin embargo, países altamente militarizados están avanzando, en particular China, India, Israel, Rusia y Estados Unidos.

Retirar a los humanos de funciones críticas, en particular de elegir a quién o qué y si atacar y cuándo hacerlo, facilita la intensificación del daño humanitario en los conflictos.

Además, con la escalada, el aumento de la velocidad y la escalada, y la exacerbación de la discriminación por motivos raciales, de género y de otro tipo, existe un riesgo importante si se utilizan armas autónomas contra los humanos.

Por esta razón se exigen prohibiciones y obligaciones específicas en relación con las armas autónomas.

Australia ha realizado enormes inversiones en autonomía para la defensa, y sin embargo, apenas existe debate público ni político. El gobierno albanés se resiste a nuevas regulaciones legales.       

Australia y la creciente autonomía a nivel mundial

En Australia, el desarrollo de la IA y la autonomía en el ámbito militar se ha expandido, con el gobierno y el sector privado avanzando a la vanguardia.

El viceprimer ministro Richard Marles ha  declarado  que «Australia debe invertir en la transición a tecnologías nuevas e innovadoras para nuestra Fuerza de Defensa» en relación con el establecimiento del  Acelerador de Capacidades Estratégicas Avanzadas,  en el que la IA es un área prioritaria. Este es un mecanismo de financiación fundamental para proyectos militares de IA, como parte de la agenda más amplia de capacidades avanzadas.

Se está introduciendo la autonomía en funciones como aeronaves, submarinos o tanques autónomos. Lo más alarmante es el uso de algoritmos u otros sistemas autónomos desarrollados para apuntar y atacar.

En un arma autónoma sin control humano, el ataque se realizaría basándose en datos de sensores, como reconocimiento facial, impresión térmica o firma acústica, en lugar de que un operador humano determine exactamente cuándo, dónde o contra qué se realiza el ataque. 

“Los usos de la IA en situaciones de conflicto aceleran la velocidad y la escala de las matanzas, intensifican el conflicto y provocan daños humanitarios masivos”.

La empresa australiana Athena AI se ha dedicado al desarrollo de software de IA para objetivos militares. A principios del año pasado, Athena AI fue adquirida por una empresa estadounidense que ahora opera como Sightline Intelligence, con sede en Australia, lo que impulsa sus tecnologías basadas en IA para plataformas militares. 

Su software ahora también se publicita como integrado en un vehículo terrestre autónomo armado, el ‘Warfighter UGV’, desarrollado por otra empresa de armas privada australiana, Cyborg Dynamics.

Las empresas de armas australianas, incluidas Cyborg Dynamics, C2 Robotics, Defend Tex y Skyborne Technologies, están avanzando en la autonomía de los sistemas de armas en una pendiente resbaladiza y sin límites regulatorios.

En septiembre, el presidente ucraniano, Volodymyr Zelensky, advirtió que “es solo cuestión de tiempo… antes de que los drones luchen contra drones, ataquen infraestructura crítica y tengan como objetivo a personas… de manera totalmente autónoma y sin humanos involucrados”. 

Ucrania es una de varias zonas de conflicto que experimentan una guerra cada vez más autónoma con un coste humano.

Las herramientas de IA, específicamente ‘Lavender’ o ‘el Evangelio’,  utilizadas por las Fuerzas de Defensa de Israel en Gaza  para producir listas de objetivos de individuos en masa basadas en calificaciones generadas por IA, son los primeros informes de sistemas de generación de objetivos de IA.

Estos usos de la IA en los conflictos aceleran la velocidad y la escalada de las matanzas, intensifican el conflicto y provocan daños humanitarios masivos.

Entrelazado con los EE.UU.

Sala de Guerra , publicación de la Escuela de Guerra del Ejército de EE.UU. UU., agosto de 2025. (Captura de pantalla, https://warroom.armywarcollege.edu/)

El avance de Australia en el desarrollo de armas y su creciente autonomía están entrelazados con sus socios internacionales, especialmente con Estados Unidos. Los vínculos con Estados Unidos influyen en la actividad de Australia en materia de inteligencia artificial militar.

Esta situación ha aumentado con AUKUS, un acuerdo de seguridad entre Australia, el Reino Unido y los Estados Unidos que limita la independencia de Australia y aumenta la dependencia de Canberra de Washington.

Australia organizó el “Ejercicio Guerrero Autónomo” como el primer ejercicio militar conjunto de una serie como parte de AUKUS llamada “Maritime Big Play” en 2024.

Los socios de AUKUS  anunciaron  la serie con el objetivo de “mejorar el desarrollo de capacidades y mejorar la interoperabilidad entre los socios”, centrada en el entorno marítimo, la IA y la autonomía.

El Gran Juego Marítimo está vinculado al pilar II de AUKUS, que promueve el intercambio de tecnología avanzada. Este pilar influye en las iniciativas militares, las prioridades gubernamentales y las actividades comerciales de empresas del sector privado. 

El gobierno  informó  que durante el ‘Ejercicio Guerrero Autónomo’, «las capacidades desarrolladas en Australia que se probaron incluyen el avión de ataque merodeador de largo alcance OWL-B; el buque de superficie no tripulado Bluebottle; el vehículo submarino autónomo extragrande Ghost Shark; y el gran vehículo submarino no tripulado Speartooth».

Respecto del ejercicio, el Ministro de Defensa, Richard Marles,  enfatizó la cooperación , diciendo: “El Pilar II es una oportunidad generacional para que nuestras tres naciones aprovechen y mejoren nuestras empresas de innovación colectiva y bases industriales”.

En términos de influencia en el panorama industrial, «Ghost Shark» es producto de un contrato con la empresa estadounidense Anduril. El proyecto fue fundamental para la expansión de Anduril en Australia. 

Anduril mencionó específicamente   a AUKUS y cómo “tecnologías como la inteligencia artificial, los sistemas autónomos no tripulados rentables y las en red de próxima generación se encuentran entre las principales prioridades de la Fuerza de Defensa Australiana”. 

El UAS Anduril Ghost-X, utilizado principalmente para vigilancia, se prepara para el vuelo en Rumania, noviembre de 2024. (Foto del Ejército de EE. UU. por el soldado de primera clase Nathan Arellano Tlaczani)

Anduril es una empresa controvertida, profundamente arraigada en el estado de seguridad de Estados Unidos y cómplice de crímenes de guerra en todo el mundo, incluso en Sudán, donde los Emiratos Árabes Unidos suministran armas utilizadas en la guerra civil, algunas producidas a través de la asociación entre Anduril y el conglomerado de armas de los Emiratos Árabes Unidos, EDGE Group. 

Una asociación entre la Real Fuerza Aérea Australiana y Boeing para desarrollar un avión de combate autónomo, ‘Ghost Bat’, ha permitido a Boeing establecer su primera planta de fabricación fuera de Estados Unidos. La planta se está construyendo en el recinto aeroespacial y de defensa de Wellcamp, en las afueras de Toowoomba, en Queensland.

La creciente presencia de empresas multinacionales de armas en Australia está creciendo con tecnologías avanzadas y la colaboración de Estados Unidos, y plantea preguntas sobre quién se beneficia realmente, ¿Canberra o Washington? 

Otras empresas multinacionales de armas que operan en Australia, como Lockheed Martin, BAE Systems y Thales, tienen proyectos relacionados con la autonomía. Advances Systems and Technology (anteriormente STELaRLab) es el primer centro de I+D de Lockheed Martin fuera de EE. UU. UU.

Colabora con instituciones de educación superior mediante becas y prácticas. Además, las colaboraciones entre el Grupo de Ciencia y Tecnología de Defensa, empresas armamentísticas y universidades se traducen en proyectos de investigación sobre tecnologías relacionadas con diferentes tecnologías y componentes.

La falta de claridad en la política australiana es alarmante dada la aceleración de la I+D y la colaboración internacional. Deben existir estándares legales y éticos adecuados para actuar con responsabilidad.

No se necesita tratado 

El primer ministro australiano, Anthony Albanese, el entonces presidente estadounidense, Joe Biden, y el entonces primer ministro británico, Rishi Sunak, en un evento de prensa para AUKUS en San Diego, el 13 de marzo de 2023. (Foto del Departamento de Defensa por Chad J. McNeeley)

Los tres socios de AUKUS siguen estando entre el pequeño puñado de países que rechazan la necesidad de un nuevo tratado para abordar las armas autónomas. 

Los socios de AUKUS se beneficiarían de un nuevo derecho internacional que establecería claramente prohibiciones y obligaciones. Esto se traduciría en requisitos compartidos que definen lo aceptable, en lugar de emprender iniciativas conjuntas en un entorno sin regulación, con diferentes interpretaciones del derecho internacional humanitario.

La ADF y el Departamento de Defensa utilizan el marco del «Sistema de Control»  para los sistemas de armas, que no aborda los requisitos sobre los aspectos del control humano en el diseño y uso de armas.

A pesar de la creación de una  lista de verificación ética de IA para Defensa , esta aún no se ha adoptado formalmente. El gobierno tampoco ha reconocido que las armas totalmente autónomas dirigidas a humanos son moral y legalmente inaceptables.

Australia se resiste al progreso diplomático

Australia sigue resistiéndose a nuevas normas para abordar las armas autónomas a pesar del hecho de que está creciendo un impulso internacional hacia las negociaciones de una nueva legislación internacional.

Los países han acordado tratados sobre diversas armas en muchas ocasiones anteriores, incluidas armas químicas, armas biológicas, minas terrestres, municiones en racimo y armas nucleares.

En noviembre, 44 países  expresaron su disposición  a “avanzar hacia las negociaciones” sobre la base de un “texto renovable” que ha sido elaborado y debatido por el “Grupo de Expertos Gubernamentales” este año. 

Así lo afirmó un documento de trabajo presentado en una reunión de la Convención sobre Ciertas Armas Convencionales (CCAC), que alberga al Grupo de Expertos Gubernamentales, la reunión de la ONU dedicada a discutir las armas autónomas.

Australia ha expresado reiteradamente su dedicación a la labor del Grupo y al foro de la CCAC, pero no ha respaldado el documento. Esto ocurrió después de que Australia  manifestara su deseo de colaborar con otros países para «considerar los próximos pasos» del Grupo, en una declaración ante la Asamblea General de la ONU en octubre.  

La afirmación de Australia de apoyar el progreso parece vacía cuando elude de inmediato los crecientes llamamientos e iniciativas que buscan negociaciones. En noviembre, la Primera Comisión de la Asamblea General de la ONU aprobó una resolución  sobre armas autónomas. Un aspecto central de la resolución apoyaba la labor que se estaba realizando en la CCAC para redactar los elementos de un instrumento con vistas a las negociaciones. 156 países votaron a favor, incluida Australia.

Sin embargo, Australia formó parte de un grupo de Estados que  subrayaron  que “toda negociación futura debe tener lugar en el marco de la Convención sobre Ciertas Armas Convencionales (CCAC) y no debe prejuzgar la naturaleza de su resultado”. Sin embargo, Australia no apoya las iniciativas de la CCAC para dar los siguientes pasos con otros países.

En la Asamblea General de la ONU, Australia también instó a que «es nuestra solemne responsabilidad defender y promover el DIH [derecho internacional humanitario]». En cuanto al derecho internacional humanitario y las armas autónomas, el Comité Internacional de la Cruz Roja afirma que se necesitan nuevas normas jurídicas para fortalecer la ley, pero Australia lo rechaza. Australia rechaza reiteradamente la necesidad de prohibiciones específicas que requieran control humano, y muy pocos países lo argumentan.

En la Asamblea General de la ONU de 2025 se produjo un aumento de declaraciones sobre armas autónomas, tanto en los debates sobre seguridad y desarme como en las reuniones generales de alto nivel. 

En cambio, Australia fue muy breve al comentar sobre las armas autónomas, limitándose a mencionar el trabajo del Grupo, pero sin abordar ningún aspecto del asunto en sí. Esto demuestra que no se reconocen los riesgos morales, legales y humanitarios en un momento tan crucial. 

En su declaración inaugural sobre seguridad y desarme, Australia  afirmó  su compromiso con el uso responsable de la  IA en el ámbito militar , sin mencionar las armas autónomas. Fue copatrocinador de la resolución sobre este tema.

El uso responsable de la IA en el ámbito militar [REAIM] es un área reconocida por todos los estados, pero aún debe desarrollar más que principios generales y no tiene en cuenta las armas autónomas.

Entre los países que lideran esta iniciativa se encuentran los Países Bajos, Corea del Sur y Estados Unidos, que iniciaron una Declaración Política en 2023, firmada por Australia. La Cumbre internacional REAIM sobre el uso responsable de la IA en el ámbito militar se reúne esta semana en España.

Australia también declaró que “las tecnologías de IA deben cumplir con el derecho internacional, incluido el DIH y el derecho internacional de los derechos humanos, a lo largo de su ciclo de vida”. A pesar de ello, Australia se resiste a avanzar en las negociaciones de un nuevo instrumento jurídico que aborda las armas autónomas.

Pensando en el futuro  

El compromiso de establecer un instrumento sobre armas autónomas está creciendo a nivel mundial y el año 2026 es de gran interés, con el fin del mandato actual del Grupo de Expertos Gubernamentales. 

La participación de Australia demostrará si la posición del gobierno se alinea con la postura moral y legal expresada por el Ministro Wong.

De igual manera, el desarrollo de capacidades sigue avanzando, al igual que las colaboraciones a través de AUKUS. Sin embargo, la oposición a AUKUS, incluyendo análisis de expertos y la opinión pública, muestra cada vez más preocupación por el acuerdo. 

Todavía está por verso si la política de Australia para orientar su participación tanto en el desarrollo interno como en la colaboración global consagrará la línea roja moral de delegar decisiones de vida o muerte a las máquinas.

Matilda Byrne es académica de la Escuela de Estudios Sociales y Urbanos Globales de la Universidad RMIT y Coordinadora Nacional de la campaña «Australia Stop Killer Robots», con sede en SafeGround, una organización australiana sin fines de lucro que busca reducir el impacto de las armas tradicionales y emergentes. También es copresidenta del Foro Australiano de Paz y Seguridad. Para más información, visita @matildabyrne.

Deja un comentario

Acerca de

Writing on the Wall is a newsletter for freelance writers seeking inspiration, advice, and support on their creative journey.