23 de Mayo de 2024
escrito por Giovanna Branca (Il Manifesto -Italia-)

En la guerra de Gaza, el papel de la tecnología, desde las redes sociales hasta el uso de la inteligencia artificial, ha surgido de una manera sin precedentes en comparación con el pasado. Este papel está colocando a Occidente en el centro de atención: desde Europa y sus intentos de imponer reglas a los gigantes tecnológicos, hasta Estados Unidos, donde Silicon Valley es ahora una potencia compensadora de facto y una fuente de presión insostenible sobre las instituciones.
Hablamos sobre estos desarrollos con Marwa Fatafta, líder de políticas y trabajo de promoción sobre derechos digitales en la región de Medio Oriente y África del Norte (MENA) para la ONG Access Now.
The Gospel, Lavender y Where’s Daddy son los principales sistemas de inteligencia artificial empleados en la guerra de Gaza, cuya existencia fue revelada por la revista israelí +972 . ¿Estamos asistiendo a una guerra en la que la inteligencia artificial se utiliza de forma más sistemática que nunca?
El uso por parte de Israel de sistemas de inteligencia artificial para llevar a cabo la guerra no es nuevo. En mayo de 2021, el bombardeo de 11 días de la Franja de Gaza inauguró el uso sin precedentes de estas tecnologías por parte del ejército israelí, que la denominó “la primera guerra de IA” en ese momento. Durante décadas, Tel Aviv ha utilizado Gaza como un laboratorio al aire libre para probar estas tecnologías distópicas, fuera de los límites de cualquier regulación o ética.
¿Cuáles serán las consecuencias, teniendo en cuenta que estos sistemas están sujetos a muchas menos regulaciones que las armas convencionales? Además, más allá de la destrucción obvia en Gaza, ¿existe una nueva amenaza para todos nosotros inherente a este uso sistemático de armas basadas en inteligencia artificial?
Estos sistemas son el epítome de todo lo que está mal con la inteligencia artificial. Son “sesgadas”, inexactas, poco confiables y se emplean para autorizar decisiones que tienen consecuencias fatales para la vida y la dignidad de las personas. La creación de sistemas diseñados para automatizar el asesinato y la destrucción masiva en tiempos de guerra plantea un grave peligro para la paz y la seguridad globales. Cualquiera que sea la tecnología que Israel emplee en Gaza, no se quedará allí. Como ocurre en cada guerra en la Franja, las tecnologías luego se exportan al resto del mundo, con el aval de haber ya sido desplegadas en el campo de batalla. En particular, así es como la “eminencia gris” detrás de la creación de Lavender, el ex jefe de la unidad de inteligencia 8200, describió su visión para el futuro: hacer que estos sistemas sean comunes en la conducción de las guerras. Deberían estar prohibidos.
En un artículo sobre la vigilancia en Gaza, el New York Times reveló que las unidades de inteligencia del ejército israelí están utilizando Google Photos como herramienta de vigilancia y base de datos. Según admiten ellos mismos, es la aplicación más útil de todas. Y esto a pesar de la política de Google contra el uso de sus tecnologías para dañar a las personas. ¿Qué dice esto sobre el papel de Silicon Valley?
Las grandes empresas tecnológicas corren el gravísimo riesgo de convertirse en cómplices de un genocidio. En tiempos como estos, las empresas deberían prestar especial atención a evaluar y reducir el peligro de que sus tecnologías y políticas puedan contribuir o estar en connivencia con abusos de derechos humanos y crímenes atroces. En cambio, empresas como Google y Amazon se están beneficiando de la muerte al seguir proporcionando inteligencia artificial y servicios en la nube al gobierno israelí, incluido el Ministerio de Defensa. Además, Google despidió en masa a sus empleados que protestaron por la participación de la empresa en el genocidio.
Usted escribió el informe de Access Now sobre la censura por parte de Meta (la empresa matriz de Facebook e Instagram) de las voces palestinas y pro palestinas. Descubriste que el algoritmo ha sido cambiado para reducir el nivel de “tolerancia” para el contenido palestino a sólo el 25 por ciento. Esta tendencia ya estaba vigente antes del 7 de octubre, como revela una investigación de The Intercept sobre las políticas de Facebook contra organizaciones e individuos peligrosos (DOI).
Meta depende en gran medida de algoritmos para descubrir y eliminar contenido que viole sus políticas. Desde el 7 de octubre, se ha observado que la empresa ha estado “retocando” su sistema para reducir el nivel de certeza necesario para rastrear y ocultar el “discurso de odio” en comentarios provenientes de Palestina. Simplemente significa que los algoritmos son más entusiastas a la hora de eliminar contenido completamente inofensivo.
Al mismo tiempo, las redes sociales están repletas de contenido antisemita e islamófobo. ¿Cómo es esto posible?
Éste es el meollo del problema. Si bien las plataformas de redes sociales censuran sistemáticamente las voces palestinas, también permiten la difusión de propaganda de guerra, discursos de odio y retórica genocida. Este mal no tiene que ver sólo con la cuestión palestina, sino que es el problema de la moderación de contenidos pura y simplemente. Las elecciones de las plataformas están motivadas por las ganancias, no por la protección de la seguridad y la libertad de expresión de los grupos oprimidos y marginados.
GACETA CRÍTICA, 23 de Mayo de 2024
Publicado originalmente en el diario comunista italiano IL MANIFESTO
Deja un comentario