Alice Saltini (Boletín de los Científicos Atómicos de EEUU), 22 de Diciembre de 2025
En noviembre, 115 estados votaron a favor, ocho en contra y 44 se abstuvieron de votar una resolución adoptada por la Primera Comisión de la Asamblea General que examina los posibles riesgos de integrar la IA en los sistemas de armas nucleares. Imagen: depositphotos
Las Naciones Unidas rara vez avanzan con rapidez en materia de desarme. Este año, sin embargo, hizo algo inusual. El 6 de noviembre, la Primera Comisión de la Asamblea General, donde los Estados debaten cuestiones de desarme y seguridad internacional, adoptó una resolución que analiza directamente los posibles riesgos de integrar la inteligencia artificial en los sistemas de armas nucleares , especialmente en el comando, control y comunicaciones nucleares, conocida como NC3. Austria, El Salvador, Kazajistán, Kiribati, Malta y México impulsaron el texto, formalizando un problema que se ha mantenido principalmente en círculos de expertos y diálogos informales.
Con 115 estados votando a favor, ocho votando en contra y 44 abstenciones, el apoyo fue amplio . Los estados con armas nucleares y muchos de sus aliados votaron en contra de la resolución o decidieron abstenerse. En contraste, el Sur Global y la mayoría de los estados sin armas nucleares expresaron un fuerte apoyo. Esta división refleja cómo cada grupo ve las amenazas y qué políticas priorizan. También revela cuán precoz e inestable aún es el pensamiento global sobre la IA en el campo nuclear. En lugar de ver el resultado de la votación como un fracaso o un éxito claros, puede leerse mejor como un caso de prueba inicial. En otras palabras, la resolución fue un intento temprano de traducir un debate técnico de rápida evolución al lenguaje diplomático.
También abrió una ventana: la resolución es un paso importante, ya que impulsa el debate más allá de la idea básica de «mantener a los humanos en control de las decisiones sobre armas nucleares» hacia un reconocimiento más preciso de cómo la IA podría impulsar una escalada involuntaria en los procesos de decisión. Además, las negociaciones y los patrones de votación muestran cómo los Estados comprenden actualmente el nexo entre la IA y la energía nuclear, cuáles son sus preocupaciones y qué están dispuestos a plasmar en papel. También ofrecen pistas sobre cómo configurar el trabajo futuro (desde los documentos de trabajo y el lenguaje de los documentos finales hasta medidas concretas de fomento de la confianza y reducción de riesgos) en foros centrados en la energía nuclear, incluida la próxima Conferencia de Examen del Tratado de No Proliferación Nuclear (TNP). Programada para la próxima primavera en la ciudad de Nueva York, la Conferencia de Examen ofrece la oportunidad de encaminar el debate hacia una vía relevante y práctica, aunque algo menos sensible, que puede ayudar a impulsar cuestiones más complejas como la integración de la IA en el mando, el control y las comunicaciones nucleares entre los Estados poseedores de armas nucleares. En el marco del TNP, esto podría significar examinar las implicaciones prácticas de la inteligencia artificial en los tres pilares: no proliferación, desarme y usos pacíficos de la energía nuclear.
Lo que dice la resolución. En esencia, el texto refleja e intenta desarrollar los compromisos políticos que varios Estados —como Francia, China, Pakistán, el Reino Unido y Estados Unidos— ya han respaldado en declaraciones o documentos finales en otros foros. Al mismo tiempo, intenta extender estos compromisos al mando, control y comunicaciones nucleares de forma más amplia, es decir, a toda la arquitectura que sustenta la toma de decisiones en materia nuclear.
En noviembre de 2024, en el marco de la cumbre de Cooperación Económica Asia-Pacífico, Estados Unidos y China afirmaron conjuntamente “la importancia de mantener el control humano sobre las decisiones de uso de armas nucleares”, lo que indica un entendimiento básico de que la IA no debe desplazar la autoridad humana en este ámbito. Asimismo, en la cumbre de IA Responsable en el Ámbito Militar (REAIM) de 2024, 61 países, entre ellos Francia, el Reino Unido, Estados Unidos y Pakistán (todos poseedores de armas nucleares), respaldaron un plan que reiteraba el mismo principio, subrayando que es “especialmente crucial mantener el control y la participación humanos en todas las acciones críticas para informar y ejecutar decisiones soberanas relativas al empleo de armas nucleares”. Francia, el Reino Unido y Estados Unidos ya habían asumido un compromiso similar en una declaración anterior .
Si bien estas declaraciones convergieron en la necesidad de preservar la autoridad humana en el empleo de armas nucleares, la reciente resolución de la Primera Comisión da un paso más al reubicar ese principio directamente en la arquitectura más amplia de mando, control y comunicaciones nucleares. Extiende el requisito de control/supervisión humana a la arquitectura más amplia que alimenta, moldea y transmite las decisiones nucleares, sin definir explícitamente cuáles son esas funciones. En su texto operativo, la resolución insta a los Estados a «adoptar y publicar políticas y doctrinas nacionales que afirmen y pongan en práctica explícitamente que los sistemas de mando, control y comunicaciones de las armas nucleares que integran inteligencia artificial seguirán sujetos al control y la supervisión humanos y que dichos sistemas no tomarán decisiones autónomas sobre el uso de armas nucleares».
El texto también da un segundo paso importante. Reconoce que los riesgos no se limitan a si se preserva la autoridad humana sobre las decisiones nucleares. Destaca un conjunto más amplio de preocupaciones asociadas con la integración de la IA en el comando, control y comunicaciones nucleares, incluyendo posibles reducciones en la supervisión humana, plazos de decisión reducidos y distorsiones que podrían aumentar las posibilidades de percepciones, interpretaciones y cálculos erróneos. Subraya las limitaciones inherentes a los sistemas de IA actuales (como la vulnerabilidad al mal funcionamiento, la explotación, el sesgo cognitivo y de automatización, y los resultados alucinados o engañosos) que podrían influir en las percepciones de los responsables de la toma de decisiones, incluso cuando técnicamente son los humanos quienes «tienen la última palabra». En ese sentido, la resolución impulsa la conversación más allá del punto de partida mínimo de «mantener a los humanos en control» hacia una comprensión más integral de cómo la IA podría afectar la dinámica y la escalada de las crisis, incluso con los responsables de la toma de decisiones humanos aún firmemente involucrados.
Lo que indican las posturas opuestas . La división en torno a la resolución refleja antiguas divisiones en el panorama nuclear (en particular, en el marco del TNP), que se han acentuado en los últimos años. Además, las opiniones divergentes sobre la IA , los foros en los que debería tener lugar este debate y las prácticas arraigadas de automatización de elementos del comando, control y comunicaciones nucleares agudizan la división.
En general, la división refleja un choque entre los Estados que priorizan el desarme nuclear en su pensamiento sobre seguridad y aquellos que consideran que el entorno de seguridad actual no es propicio para avanzar en el desarme. Muchos Estados no poseedores de armas nucleares se ubican en la primera categoría. Los Estados reconocidos como poseedores de armas nucleares en virtud del TNP —China, Francia, Rusia, el Reino Unido y los Estados Unidos— y muchos de sus aliados, se ubican en gran medida en la segunda categoría.
En un entorno de seguridad en deterioro, varios estados con armas nucleares consideran la IA como una herramienta clave para lograr dominio tecnológico y, en el ámbito militar, como una fuente de ventaja operativa y estratégica . Las aplicaciones de inteligencia artificial prometen mejorar la alerta temprana, aumentar la conciencia situacional y aumentar la resiliencia del comando y control. Desde esta perspectiva, las iniciativas regulatorias pueden parecer prematuras , potencialmente restrictivas o desalineadas con las prioridades de seguridad nacional, y los marcos que se centran demasiado en los riesgos pueden parecer desalineados con lo que estos gobiernos consideran los beneficios operativos y estratégicos de la IA. La dinámica de las alianzas también influye claramente en las posiciones de algunos aliados no nucleares.
En cambio, los Estados orientados al desarme suelen interpretar las «oportunidades en el ámbito militar» como un refuerzo de la trayectoria hacia una militarización más sofisticada (y, por ende, más arraigada). Consideran la IA en el mando, control y comunicaciones nucleares como una nueva capa de riesgo que se suma a un sistema ya de por sí frágil. Desde esta perspectiva, unas obligaciones más estrictas y unas medidas de seguridad más claras son una continuación lógica de los esfuerzos para reducir los peligros nucleares.
Sin duda, la resolución reconoce que la IA podría tener usos positivos, como la verificación del desarme y un apoyo más amplio al desarme. Suiza, que votó a favor, señaló que el texto podría haber ido más allá al mostrar cómo la IA podría reducir concretamente los riesgos nucleares. Para los Estados dispuestos a explorar dichos usos, el énfasis en los riesgos probablemente pareció desequilibrado. Dicho esto, cabe destacar que otra resolución sobre el uso militar responsable de la IA, presentada por primera vez en 2024, ya ha intentado lograr un equilibrio más explícito entre beneficios y riesgos (aunque no aborde directamente el ámbito nuclear), lo que ilustra que el debate sobre el «uso responsable de la IA» en el ámbito militar, con un mayor enfoque en los beneficios, ya está en marcha.
Otros se opusieron a las definiciones y al proceso. Rusia, por ejemplo, justificó su voto negativo señalando la falta de una terminología establecida, especialmente en torno a la «inteligencia artificial» y el «control humano significativo», conceptos que han sido objeto de debate durante mucho tiempo sobre sistemas de armas autónomas letales. En opinión de Rusia, «sin un vocabulario fundamental consensuado, cualquier declaración, y más aún cualquier obligación, en este ámbito inevitablemente seguirá siendo en gran medida especulativa y dará demasiado margen a interpretaciones divergentes». Rusia también argumentó que es «contraproducente extraer los aspectos nucleares de la integración de la IA en los sistemas de armas y su gestión del contexto más amplio de la estabilidad estratégica», y que las discusiones sobre temas tan delicados deberían tener lugar, ante todo, entre los Estados con armas nucleares.
Fue más difícil rastrear el razonamiento detrás de los votos de otros estados con armas nucleares, pero sus posiciones probablemente se basaron en argumentos similares , condicionadas por sus doctrinas y prioridades de seguridad. En conjunto, estas reacciones sugieren que la resolución se topó con dos tipos principales de resistencia: un desacuerdo sustancial sobre cómo equilibrar riesgos y oportunidades, y preocupaciones procedimentales o políticas sobre los foros en los que se desarrolla el debate, cómo se definen los términos clave y qué podría implicar el texto para el control soberano sobre la postura nuclear y otros asuntos delicados.
También cabe señalar que, dado que partes del comando, control y comunicaciones nucleares han implicado automatización durante décadas , puede haber resultado difícil aprobar un lenguaje que implique control humano directo sobre todas estas funciones. La información pública sobre comando, control y comunicaciones nucleares es escasa, por lo que resulta difícil evaluar con exactitud el grado de automatización ya existente (salvo algunos casos bien documentados), qué funciones requieren la participación humana y en qué medida, y dónde los propios Estados establecen el límite entre los niveles de delegación aceptables e inaceptables (y en qué medida varía este límite entre Estados). Es plausible que esto contribuyera a la reticencia de los Estados con armas nucleares a aprobar un lenguaje más contundente.
En ese sentido, la votación expuso las diferentes interpretaciones que los Estados dan a sus compromisos cuando la IA entra en el panorama nuclear. Los futuros esfuerzos multilaterales, incluidos los vinculados al TNP, deberán abordar esta brecha.
Dar forma a la siguiente fase del debate . Las negociaciones y el resultado de esta resolución ofrecen lecciones prácticas sobre cómo llevar este debate a futuros entornos multilaterales, especialmente en foros relevantes para la energía nuclear, como la Conferencia de Examen del TNP de 2026. Tres lecciones se destacan.
En primer lugar, cualquier nueva iniciativa necesitará un respaldo más amplio en todo el espectro de opiniones, incluyendo, crucialmente, el de los Estados poseedores de armas nucleares. Esto implica lograr un mejor equilibrio entre riesgos y oportunidades. En lugar de centrarse principalmente en la «eficiencia operativa», podría ser más productivo explorar cómo las aplicaciones de IA pueden ayudar a reducir los riesgos nucleares de maneras que beneficien a todas las partes.
Ya existen posibilidades concretas sobre la mesa . Las herramientas de IA pueden ayudar a reducir la ambigüedad al mejorar la coherencia de la información utilizada en los intercambios diplomáticos y al detectar patrones inusuales en datos de código abierto sobre pruebas de misiles, ejercicios o sistemas que pueden transportar cargas útiles tanto convencionales como nucleares. La IA también podría respaldar el análisis compartido de crisis pasadas, lo que ayudaría a aclarar las vías de escalada e identificaría puntos recurrentes de malentendidos. Estas aplicaciones de menor importancia no afectan a las funciones sensibles de comando, control y comunicaciones nucleares, sino que abordan directamente las preocupaciones sobre la percepción y los cálculos erróneos. Por lo tanto, ofrecen un punto de partida constructivo para debatir usos positivos de la IA que reduzcan el riesgo antes de pasar a áreas de mayor importancia.
En segundo lugar, las sedes son importantes, pero ningún foro puede abarcarlo todo por sí solo. El TNP es el lugar ideal para reflexionar sobre las implicaciones de la IA a través de sus tres pilares: desarme, no proliferación y usos pacíficos. Por ejemplo, en el caso de la no proliferación, la IA podría contribuir a la vigilancia y detección de actividades ilícitas relacionadas con la energía nuclear, pero también podría facilitar métodos más sofisticados para evadirlas. En el caso del desarme, la IA podría mejorar los regímenes de verificación, así como la transparencia y la presentación de informes mediante el procesamiento de datos de vigilancia, la mejora de la contabilidad del material nuclear y la asistencia en la preparación y verificación de los informes nacionales, pero también podría ayudar a identificar y explotar las deficiencias en la verificación. En el caso de los usos pacíficos, las aplicaciones de la IA en materia de seguridad nuclear, protección física y salvaguardias podrían reforzar la confianza, pero persistirán las preocupaciones sobre el doble uso. Estructurar el debate en torno a estos pilares otorga a todas las partes una mayor participación en el resultado.
Al mismo tiempo, el TNP no es el foro adecuado para abordar los detalles operativos de la integración de la IA en el comando, control y comunicaciones nucleares. Para ello, los Estados poseedores de armas nucleares deberán colaborar directamente entre sí. Cuando las condiciones lo permitan, el formato P5 (los cinco Estados poseedores de armas nucleares reconocidos por el TNP) es el marco lógico para examinar con mayor profundidad las implicaciones de la IA en el comando, control y comunicaciones nucleares, incluyendo cómo podrían interactuar los diferentes enfoques nacionales en una crisis.
Mientras tanto, Estados Unidos, el Reino Unido y Francia pueden tomar una medida pragmática para desarrollar sus declaraciones existentes sobre el control humano y lanzar un diálogo trilateral estructurado sobre el nexo nuclear-IA. Incluso una comprensión compartida de los riesgos de escalada, las suposiciones y los posibles modos de fallo sería un punto de partida significativo. Los altos funcionarios ya han destacado posibles aplicaciones relevantes para el NC3 : el excomandante del Comando Estratégico de los EE. UU., el general Anthony J. Cotton, por ejemplo, afirmó que la IA permitirá una «coordinación fluida con aliados y socios». El diálogo podría explorar cómo podrían lucir dichas aplicaciones en la práctica y qué escenarios de fallo deben anticiparse. Si estas naciones pudieran involucrar a China en conversaciones relacionadas, incluso de manera informal o a nivel técnico, el proceso sería más valioso, aunque la participación total de China sigue siendo poco probable en el corto plazo.
Mientras tanto, es importante destacar la importancia de iniciar este debate en la Primera Comisión. Si bien no es el foro ideal para conversaciones operativas detalladas sobre la IA y el mando, control y comunicaciones nucleares, ofrece un foro inclusivo donde los Estados no poseedores de armas nucleares pueden expresar sus preocupaciones sobre un tema con posibles implicaciones globales. Elevar el debate más allá del compromiso básico de mantener el control humano sobre el empleo de armas nucleares y avanzar hacia un reconocimiento más amplio de los riesgos de escalada relacionados con la IA es un logro importante. De cara al futuro, los Estados poseedores de armas nucleares deberían aprovechar esta base e iniciar debates más profundos entre ellos.
En tercer lugar, es necesario desentrañar el concepto de «humano en el circuito». La mayoría de los estados respaldan actualmente algún tipo de compromiso con el control humano, pero aún no está claro qué quieren decir con eso (y si significan lo mismo). En futuras conversaciones, podrían centrarse menos en reafirmar el mismo principio y más en sus implicaciones. Esto podría incluir aclarar hasta qué punto se considera aceptable la dependencia de la evaluación generada por IA, qué nivel de transparencia y pruebas se necesita para mantener la confianza, y cómo evitar situaciones en las que los humanos formalmente toman la decisión final, pero, en la práctica, dependen en gran medida de sistemas de IA opacos.
La siguiente fase de trabajo deberá avanzar hacia debates concretos y contextualizados. Esto incluye cómo se relaciona la IA con cada pilar del TNP, cómo los Estados poseedores de armas nucleares comprenden y gestionan los riesgos de la IA en el mando, el control y las comunicaciones nucleares, y cómo debería ser en la práctica un control humano significativo. De esta manera, los esfuerzos futuros tienen más posibilidades de obtener apoyo de ambas partes de la actual división.
Deja un comentario