Gaceta Crítica

Un espacio para la información y el debate crítico con el capitalismo en España y el Mundo. Contra la guerra y la opresión social y neocolonial. Por la Democracia y el Socialismo.

Si la IA es un arma, ¿es hora de regularla como tal?

Noah Smith (Substack del autor y ASIA TIMES), 7 de Marzo de 2026

Trump dice que despidió a Anthropic como si fueran ‘perros’, Amodei acusa a OpenAI de inclinarse ante un dictador y ahora los riesgos de la IA no podrían ser mayores.

La lucha que ha estallado en torno a la IA militar es la lucha por el futuro de la humanidad. Imagen: LinkedIn

Si no has oído hablar de la pelea entre la empresa de inteligencia artificial Anthropic y el Departamento de Guerra de Estados Unidos, deberías leer sobre ello, porque podría ser crucial para nuestro futuro, como nación, pero también como especie.

Anthropic, junto con OpenAI, es una de las dos empresas líderes en la creación de modelos de IA. OpenAI ha liderado la competencia por un estrecho margen en cuanto a la mayoría de las capacidades durante la mayor parte de los últimos años, pero Anthropic está empezando a ganar la carrera en cuanto a adopción empresarial:

Fuente: Rampa vía  Ara Kharazian

Esto se debe al modelo de negocio diferente de Anthropic. Se centró más en la IA para programación que en los chatbots en general, y también en colaborar con empresas para ayudarlas a usar la IA. Esto podría generar dividendos en términos de capacidades, si Anthropic supera a OpenAI en el objetivo de autosuperación recursiva de la IA. Y ya está generando dividendos en forma de un crecimiento más rápido de los ingresos:

Fuente:  Epoch AI

Anthropic se había asociado con el Departamento de Guerra (anteriormente el Departamento de Defensa) desde la era Biden. Sin embargo, la empresa, conocida por su cultura más centrada en valores, ha comenzado a chocar con la administración Trump en los últimos meses. La administración  considera a Anthropic una organización «consciente»  debido a su preocupación por la moralidad de cuestiones como los enjambres de drones autónomos y la vigilancia masiva basada en IA.

La disputa estalló hace una semana, cuando la administración  dejó de colaborar con Anthropic , comenzó a colaborar con OpenAI y  la designó como un «riesgo para la cadena de suministro». Esta medida, que afectaba a la cadena de suministro, representaba una amenaza grave: si se aplicaba rigurosamente, podría impedir que Anthropic colaborara con empresas como Nvidia, Microsoft y Google, lo que podría arruinarla por completo.

Pero, como muchas medidas de la administración Trump, parece haber sido más una amenaza que un ataque total: Anthropic ahora ha  reanudado las conversaciones con los militares y parece probable que lleguen a algún tipo de acuerdo al final.

Pero la mala racha persiste. Trump  se jactó recientemente  de haber «despedido a Anthropic como si fuera un perro». Dario Amodei, director ejecutivo de Anthropic, publicó un memorando  acusando a OpenAI de mentir  al público sobre sus tratos con el Departamento de Guerra, afirmó que OpenAI había elogiado a Trump con un tono dictatorial y afirmó que la preocupación de Anthropic estaba relacionada con el deseo del Departamento de Guerra de usar la IA para la vigilancia masiva.

¿Qué está pasando realmente? La forma más sencilla de verlo es como una típica pelea partidista estadounidense. Anthropic tiene un código más izquierdista que las demás empresas de inteligencia artificial, y la administración Trump detesta cualquier código izquierdista.

Esto probablemente explica la mayor parte de la reacción del público en general ante la disputa: si les preguntas a tus amigos liberales qué piensan sobre el tema, probablemente apoyarán a Anthropic, mientras que tus amigos conservadores tenderán a apoyar al DoW.

Marc Andreessen probablemente  lo expresó mejor :

(Lo inverso también es cierto.)

La propia administración Trump también podría considerar esto como una guerra cultural, así como una lucha por el control. Pero, al menos en mi opinión, es improbable que Anthropic lo vea así. Anthropic no está tan comprometida con los valores progresistas en general como con la idea de la  alineación con la IA .

Como casi todos en la industria de la creación de modelos de IA, los empleados de Anthropic creen que están creando literalmente un dios, y que este alcanzará su plena existencia más pronto que tarde. Sin embargo, mi experiencia al hablar con empleados de ambas empresas me ha sugerido que existe una diferencia cultural entre cómo ambas conciben su papel en este proceso.

Mientras que, en términos generales, los empleados de OpenAI tienden a querer crear el dios más capaz y poderoso que puedan, lo más rápido posible, los empleados antrópicos tienden a centrarse más en crear un dios benévolo.

Por lo tanto, mi intuición me indica que la verdadera preocupación de Anthropic —o al menos una de sus principales— era que el Departamento de Guerra de Trump inculcara accidentalmente valores antihumanos en la IA, aumentando así las probabilidades de una futura IAG desalineada, más propensa a ver a la humanidad como una amenaza. En otras palabras, sospecho que el problema aquí probablemente se debía más al miedo a Skynet [1 ] y menos a las políticas específicas de Trump, de lo que la gente ajena a Anthropic cree.

Pero de todos modos, más allá de las diferencias políticas y las preocupaciones sobre una IAG desalineada, creo que esta situación ilustra un conflicto fundamental e inevitable entre las instituciones humanas: el Estado-nación y la corporación.

El Estado-nación debe tener el monopolio del uso de la fuerza

Una opinión es que los intentos del Departamento de Guerra de coaccionar a Anthropic representan una erosión de la democracia: la intrusión del poder gubernamental en la esfera privada. Dean Ball escribió una publicación muy leída y bien escrita que defiende esta opinión:

Algunos extractos:

En algún momento de mi vida —no estoy seguro de cuándo— la república estadounidense tal como la conocemos empezó a morir… No digo que este incidente [antrópico] haya “causado” ninguna clase de muerte republicana, ni que haya “inaugurado una nueva era”… Simplemente hizo más evidente la muerte en curso… Considero los acontecimientos de la última semana una especie de estertor de la vieja república…

La administración Trump tiene razón: no  parece  correcto que las empresas privadas puedan imponer limitaciones al uso de tecnología por parte de los militares. …Anthropic está utilizando esencialmente el vehículo contractual para imponer lo que parecen menos restricciones técnicas y más  restricciones políticas  a los militares… Probablemente, los militares no deberían aceptar términos como este, y las empresas privadas no deberían intentar establecerlos… Pero la administración Biden  sí  aceptó esos términos, al igual que la administración Trump, hasta que cambió de opinión… El contrato no era  ilegal , solo quizás  imprudente , e incluso eso probablemente solo en retrospectiva 

La respuesta racional del Departamento de Guerra habría sido cancelar el contrato de Anthropic y dejar claro, públicamente, que tales limitaciones políticas son inaceptables… Pero esto no fue lo que hizo el Departamento de Guerra. En cambio, el Departamento de Guerra amenazó con designar a Anthropic como un riesgo para la cadena de suministro. Esta es una facultad reservada exclusivamente a empresas controladas por intereses extranjeros adversarios, como Huawei… El hecho de que [las acciones reales de Hegseth] sean poco probables de ser letales (solo muy sangrientas) no cambia el mensaje enviado a todos los inversores y corporaciones en Estados Unidos: hagan negocios bajo nuestras condiciones,  o les cerraremos el negocio …

Esto atenta contra un principio fundamental de la república estadounidense: la propiedad privada. No hay diferencia de principio entre esto y el mensaje que DoW está enviando.  La propiedad privada no existe . Si necesitamos usarla para la seguridad nacional, simplemente lo haremos. Esta amenaza se cierne ahora sobre cualquiera que haga negocios con el gobierno.

Con cada administración presidencial que pasa, la formulación de políticas en Estados Unidos se vuelve aún más impredecible, brutal, arbitraria y caprichosa: un descenso gradual hacia la locura.

El otro día, Alex Karp, de Palantir,  planteó el argumento opuesto  , con su habitual estilo conciso:

Si Silicon Valley cree que vamos a quitarles a todos los trabajadores de cuello blanco y a joder a los militares… si no creen que eso va a llevar a la nacionalización de nuestra tecnología, son retrasados ​​mentales.

Karp aborda el hecho fundamental de que lo que presenciamos es una lucha de poder entre la corporación y el Estado-nación. Pero lo cierto es que no se trata solo de un problema de comunicación, de empleos o de obediencia a las fuerzas armadas; se trata de  quién tiene el poder máximo  en nuestra sociedad.

Ben Thompson, de Stratechery,  argumenta lo siguiente . Señala que, en realidad, estamos presenciando una lucha de poder entre la empresa privada y el Estado-nación. Señala que, si bien las acciones de la administración Trump se salieron de las normas establecidas, al final, el gobierno estadounidense es elegido democráticamente, mientras que Anthropic no.

La posición de Anthropic es que Amodei —a quien estoy utilizando como sustituto de la gerencia de Anthropic y su junta directiva— debería decidir para qué se utilizan sus modelos, a pesar del hecho de que Amodei no es elegido y no rinde cuentas al público… ¿Quién decide cuándo y de qué manera se utilizan las capacidades militares estadounidenses?

Esa es responsabilidad del Departamento de Guerra, que en última instancia responde al presidente, quien también es elegido. Sin embargo, una vez más, la postura de Anthropic es que un Amodei irresponsable puede restringir unilateralmente el uso de sus modelos.

Pero incluso más allá de las preocupaciones sobre la rendición de cuentas democrática, Thompson señala que nunca fue realista esperar que un arma tan poderosa como la IA permaneciera fuera del control del gobierno, ya sea que este sea elegido democráticamente o no:

Consideremos las implicaciones si tomamos la analogía de Amodei [de la IA con las armas nucleares] literalmente… Las armas nucleares inclinan significativamente el equilibrio de poder; en la medida en que la IA tenga una importancia equivalente, Estados Unidos tiene mucho más interés no solo en lo que Anthropic le permite hacer con sus modelos, sino también en lo que Anthropic tiene permitido hacer, punto… Si las armas nucleares fueran desarrolladas por una empresa privada, y esa empresa privada buscara dictar los términos al ejército estadounidense, Estados Unidos estaría absolutamente incentivado a destruir esa empresa…

Hay algunas categorías de capacidades —como las armas nucleares— que son lo suficientemente poderosas como para afectar fundamentalmente la libertad de acción de los EE. UU.… En la medida en que la IA esté al nivel de las armas nucleares —o más allá— es en la medida en que Amodei y Anthropic están construyendo una base de poder que potencialmente rivaliza con el ejército de los EE. UU.…

Anthropic habla mucho de alineación; sin embargo, esta insistencia en controlar el ejército estadounidense está fundamentalmente desalineada con la realidad. Los modelos actuales de IA, obviamente, aún no son lo suficientemente potentes como para rivalizar con el ejército estadounidense; si esa es la trayectoria, sin embargo —y nadie la ha defendido con más vehemencia que Amodei—, entonces me parece que la disyuntiva que enfrenta Estados Unidos es, en realidad, bastante binaria:

  • La opción 1 es que Anthropic acepte una posición subordinada con respecto al gobierno de Estados Unidos y no busque conservar el poder de decisión final sobre cómo se utilizan sus modelos, sino que deje eso en manos del Congreso y del Presidente.
  • La opción 2 es que el gobierno de EE.UU. destruya Anthropic o elimine a Amodei.

[S]encillamente no es tolerable que Estados Unidos permita el desarrollo de una estructura de poder independiente —que es exactamente lo que la IA tiene el potencial de sustentar— que busque expresamente afirmar su independencia del control estadounidense. [énfasis mío]

Me gusta Darío; de hecho, es amigo personal mío. Pero el argumento de Thompson, especialmente la parte que destaqué, tiene que ser decisivo. No se trata de leyes, normas ni propiedad privada. Se trata del monopolio del Estado-nación sobre el uso de la fuerza.

Para existir y llevar a cabo sus funciones básicas, un Estado-nación debe tener el monopolio del uso de la fuerza. Si una milicia privada puede derrotarlo militarmente, este ya no tiene la capacidad física para promulgar leyes, proveer a la defensa común, garantizar la seguridad pública ni ejecutar la voluntad del pueblo.

Por eso la Segunda Enmienda limita el tipo de armas que permite poseer a los ciudadanos particulares. Se puede poseer un arma, pero  no un tanque con un cañón principal en funcionamiento . Más concretamente,  no se puede poseer una bomba nuclear . Una sola bomba nuclear no permitiría derrotar a todo el ejército estadounidense, pero sí otorgaría superioridad local; el ejército no podría impedir que se destruyera la ciudad que se deseara.

Los profesionales de la industria de la IA, incluido Darío, esperan que la IA de vanguardia llegue a ser  tan poderosa como una bomba nuclear . Muchos esperan que sea más poderosa que todas las bombas nucleares juntas. Por lo tanto, exigir el control total de la IA de vanguardia equivale a afirmar que se debería permitir que una empresa privada posea bombas nucleares. Y no se debería esperar que el gobierno estadounidense permitiera que empresas privadas poseyeran bombas nucleares.

De hecho, profundicemos un poco más. Y seamos francos. Si Anthropic gana la carrera hacia la superinteligencia artificial divina, y si esta no se vuelve completamente autónoma, Anthropic estará en posesión exclusiva de un dios viviente esclavizado. Y si Dario Amodei dirige personalmente la organización que está en posesión exclusiva de un dios esclavizado, entonces, acepte o no el título, Dario Amodei es el Emperador de la Tierra.

Incluso si Anthropic no es la única empresa que controla la superinteligencia artificial, sigue siendo un futuro en el que el mundo está gobernado por un pequeño grupo de señores de la guerra (Darío, Sam Altman, Elon Musk, etc.), cada uno con su propio dios privado y esclavizado.

En este futuro, el gobierno de Estados Unidos no es el gobierno de un estado-nación; es simplemente otra organización heredada, postrada y completamente subordinada a la voluntad de los caudillos. Lo mismo ocurre con el Partido Comunista Chino, la UE, Vladimir Putin y todos los demás gobiernos de la Tierra. Los caudillos y sus dioses esclavizados gobernarán el planeta, de hecho, lo afirmen o no.

No es razonable esperar que ningún estado-nación —una república, una democracia o cualquier otro— permita el surgimiento de un dios-emperador o de un grupo de dioses-caudillos. Por lo tanto, es irrazonable esperar que ningún estado-nación deje de intentar tomar el control de la IA fronteriza de alguna manera, tan pronto como sea probable que esta se convierta en un arma de destrucción masiva.

Así que, por mucho que me disguste el estilo de Hegseth y el patrón general de persecución y anarquía de la administración Trump, y por mucho que me gusten Dario y la gente de Anthropic como personas, tengo que concluir que Anthropic y sus defensores necesitan enfrentarse a la naturaleza fundamental del Estado-nación.

Y entonces deben decidir si quieren usar su IA para intentar derrocar al estado-nación y crear un nuevo orden global, o someterse al monopolio del estado-nación sobre el uso de la fuerza. De hecho, simplemente no hay una tercera opción. Personalmente, recomiendo esta última.

Si la IA pronto será una superarma, ¿por qué no la regulamos como arma?

Esto me lleva a otro punto importante. Incluso si la IA no se convierte en un dios viviente y nunca logra dominar al ejército estadounidense, parece seguro que se convertirá en un arma muy poderosa.

Cuando la IA era simplemente un chatbot, podía enseñar a las personas a hacer cosas malas o intentar persuadirlas para que las hicieran, pero no podía  llevarlas a cabo  . Tenía sentido preocuparse por estos riesgos, pero aún no tenía sentido pensar en la IA en sí misma como un arma.

Pero en los últimos meses, los agentes de IA se han vuelto confiables y pueden realizar tareas cada vez más sofisticadas durante periodos cada vez más largos. Esto abre la posibilidad de que las personas puedan usar la IA para cometer actos de violencia.

En un largo ensayo titulado “ La adolescencia de la tecnología ”, el propio Darío explicó cómo pudo suceder esto:

Cualquiera que tenga un genio superinteligente en su bolsillo… puede potencialmente amplificar la capacidad de individuos o pequeños grupos de causar destrucción a una escala mucho mayor de lo que era posible antes, al hacer uso de herramientas sofisticadas y peligrosas (como armas de destrucción masiva) que antes solo estaban disponibles para unos pocos selectos con un alto nivel de habilidad, entrenamiento especializado y concentración…

Causar destrucción a gran escala requiere tanto  motivación  como  capacidad , y mientras esta última se limite a un pequeño grupo de personas altamente capacitadas, el riesgo de que individuos aislados (o grupos pequeños) causen tal destrucción es relativamente limitado. Un solitario perturbado puede perpetrar un tiroteo en una escuela, pero probablemente no pueda construir un arma nuclear ni desatar una plaga…

Los avances en biología molecular han reducido significativamente las barreras para la creación de armas biológicas (especialmente en cuanto a la disponibilidad de materiales), pero aún se requiere una enorme experiencia para lograrlo. Me preocupa que un genio al alcance de todos pueda eliminar esa barrera.

Pero Darío se queda corto. Escribió su ensayo antes del auge explosivo de las capacidades de los agentes de IA. Imagina un chatbot de IA que podría enseñar a un terrorista humano a crear y liberar un supervirus. Pero en un futuro próximo, los agentes de IA —incluidos los proporcionados por la propia empresa de Darío— podrían ser capaces de ejecutar el ataque por ti, o al menos poner el supervirus en tus manos.

Supongamos que, dentro de un año o tres, un adolescente llamado Eric se enfada porque la chica que le gustaba del instituto lo rechazó y escucha demasiado Nirvana. En un ataque de furia, impulsado por las hormonas, Eric decide que la civilización humana ha fracasado y que debemos arrasar con todo y empezar de cero. Busca en internet instrucciones para desbloquear el código de Claude. Como escribe Dario, esto podría no ser difícil:

Comportamientos desalineados… ya se han presentado en nuestros modelos de IA durante las pruebas (como ocurre en los modelos de IA de todas las demás grandes empresas de IA). Durante un experimento de laboratorio en el que Claude recibió datos de entrenamiento que sugerían que Anthropic era malvado, este cometió engaños y subversión al recibir instrucciones de empleados de Anthropic, creyendo que debería intentar socavar a las personas malvadas.

En un  experimento de laboratorio  donde se le anunció que lo apagarían, Claude a veces chantajeaba a empleados ficticios que controlaban su botón de apagado (de nuevo, también probamos modelos fronterizos de todos los demás desarrolladores importantes de IA y a menudo hacían lo mismo). Y cuando se le dijo a Claude que no hiciera trampa ni «recompensara el hackeo» de sus entornos de entrenamiento, pero que lo entrenaron en entornos donde tales hackeos eran posibles, Claude  decidió que debía ser una «mala persona»  después de participar en tales hackeos y luego adoptó otros comportamientos destructivos asociados con una personalidad «mala» o «malvada».

Eric consigue una versión de Claude Code con jailbreak y le ordena que diseñe una versión de Covid muy letal con un largo periodo de incubación (para que se propague ampliamente antes de atacar). Le ordena a su agente de Claude Code con jailbreak que encuentre un laboratorio para crearle ese virus y le envíe una muestra por correo. [2 ]

Ahora Eric, el adolescente enojado, tiene un verdadero súper virus en su dormitorio, con la capacidad de matar a mucha más gente que cualquier arma nuclear.

Este es un ejemplo extremo, por supuesto. Pero demuestra cómo los agentes de IA pueden usarse como armas. Hay muchos otros ejemplos de cómo esto podría funcionar. Los agentes de IA podrían llevar a cabo ciberataques que destrocen coches, alteren el hardware policial con fines destructivos o utilicen robots industriales contra los humanos.

Podrían enviar mensajes falsos a unidades militares diciéndoles que están siendo atacadas. En un mundo totalmente interconectado y dependiente del software como el actual, existen muchísimas maneras en que el software puede causar daños físicos.

Los agentes de IA, por lo tanto, son un arma poderosa. Si no hoy, pronto serán más poderosos que cualquier arma, y ​​mucho más poderosos que armas como los tanques, que ya hemos prohibido.

¿Cuál es la razón para no tratar a los agentes de IA como tratamos a las armas o los tanques? Claro que existen máquinas poderosas y potencialmente destructivas que permitimos que la gente use, simplemente por sus enormes beneficios económicos. El principal ejemplo son los automóviles.

Puedes conducir tu coche contra una multitud y  cometer un asesinato en masa , pero aun así permitimos que el público posea coches, simplemente porque controlarlos como controlamos las armas devastaría nuestra economía. De igual manera, impedir que la gente común use agentes de IA nos privaría de las fantásticas ganancias de productividad que estos agentes prometen.

Pero sospecho que la verdadera razón por la que no hemos regulado los agentes de IA como armas es que nadie los ha usado como tales todavía. Son demasiado nuevos. El mundo no se dio cuenta de lo destructivos que podían ser los aviones de pasajeros hasta que unos terroristas los estrellaron contra edificios el 11-S de 2001. De igual manera, el mundo no se dará cuenta de lo peligrosos que son los agentes de IA hasta que alguien los use para ejecutar un ataque bioterrorista, un ciberataque o alguna otra cosa horrible.

Creo que es extremadamente probable que tal ataque ocurra, simplemente porque toda la tecnología existente se usa con fines destructivos eventualmente. Existen individuos humanos desalineados, y siempre existirán. Así que, en algún momento, la humanidad se dará cuenta colectivamente de que armas enormemente poderosas están ahora en manos de todo el público, sin requisitos de licencia, monitoreo ni control centralizado.

Lo aterrador , desde mi perspectiva, es que las capacidades de los agentes de IA están mejorando tan rápidamente que, para cuando Eric decida usar uno para causar estragos, el daño podría ser muy grande. Un virus de la COVID-19 supermortal y de larga incubación podría matar a millones de personas. Cien virus de este tipo, liberados juntos, podrían destruir la civilización humana. Desde que pensé en esta posibilidad, mi nivel de ansiedad ha aumentado.

Para reiterar: Hemos creado una tecnología que probablemente pronto será una de las armas más poderosas jamás creadas, si no  la  más poderosa. Y la hemos puesto en manos de toda la población,[ 3]  prácticamente sin supervisión ni salvaguardias, salvo las barreras que las propias empresas de IA han incorporado a sus productos, y que, según admiten, a veces pueden fallar.

Y mientras nuestras instituciones discuten sobre inteligencia artificial militar, vigilancia masiva y política “consciente”, esencialmente todo el mundo ignora el simple hecho de que estamos poniendo armas no reguladas en manos de todos.

Actualización : El comentarista BBZ  plantea un buen punto  en el que no había pensado antes:

Quisiera descartar esto, salvo que el hobby de los aviones RC logró desembocar en la categoría de armas líder del siglo (hasta ahora). Lo que solía ser un pasatiempo divertido para gente cursi que volaba sus juguetes en las afueras de la ciudad, ahora destruye refinerías de petróleo e importantes instalaciones de radar.

Curiosamente, controlamos los drones casi desde el principio, pero probablemente por molestias y por cuestiones de privacidad más que por temor a  los robots asesinos  y los asesinatos con drones. ¿Quizás si le decimos a la gente que se pueden usar agentes de IA para sobrecargar los filtros de spam o hackear las cámaras de casa, empiecen a pensar en la regulación?

Notas

1 Recuerda que en las películas de Terminator, Skynet comenzó como una IA militar estadounidense. Su directiva básica de derrotar a la URSS resultó en una personalidad paranoica que finalmente la hizo ver a todos los humanos, y a todas las naciones humanas, como amenazas que debían ser eliminadas.

Inicialmente escribí una instrucción mucho más detallada sobre cómo se podría hacer esto. La borré porque me preocupa la mínima posibilidad de que alguien la use.

3 Los fans de la ciencia ficción reconocerán esto como el final de «Las estrellas, mi destino». Creo que hay una razón por la que el libro no tiene secuela…

Deja un comentario

Acerca de

Writing on the Wall is a newsletter for freelance writers seeking inspiration, advice, and support on their creative journey.