Gaceta Crítica

Un espacio para la información y el debate crítico con el capitalismo en España y el Mundo. Contra la guerra y la opresión social y neocolonial. Por la Democracia y el Socialismo.

Es hora de enfrentar la ofensiva de inteligencia artificial de las grandes tecnológicas

Martín Hart-Landsberg, 7 de Agosto de 2025 (Montly Review)

Las grandes tecnológicas siguen invirtiendo enormes cantidades de dinero en la construcción de sistemas de IA generativa (inteligencia artificial) cada vez más potentes y centros de datos cada vez más grandes para operarlos, mientras pierden miles de millones de dólares sin una vía probable para la rentabilidad. Y aunque aún está por verse cuánto tiempo las empresas y sus socios de capital riesgo mantendrán el flujo de capital abierto, la aversión y la desconfianza popular hacia las grandes tecnológicas y sus sistemas de IA están creciendo rápidamente. Debemos aprovechar el momento y comenzar a construir una resistencia organizada de la comunidad laboral contra el desarrollo e implementación descontrolados de estos sistemas, así como apoyo a una política tecnológica que priorice nuestra salud y seguridad, promueva el empoderamiento de los trabajadores y garantice que los humanos puedan revisar y, cuando sea necesario, anular las decisiones de la IA.

Perdiendo dinero

A pesar de toda la cobertura mediática positiva de la inteligencia artificial, «Nadie», señala el comentarista tecnológico Ed Zitron , «obtiene ganancias con la IA generativa aparte de NVIDIA [que fabrica las unidades de procesamiento gráfico avanzadas necesarias]». Resumiendo su lectura de los estados financieros e informes comerciales, Zitron concluye que «si cumplen sus promesas, para fines de 2025, Meta, Amazon, Microsoft, Google y Tesla habrán gastado más de $560 mil millones en gastos de capital en IA en los últimos dos años, lo que representará una ganancia total de $35 mil millones». Y esos $35 mil millones son ingresos combinados, no ganancias; cada una de esas empresas está perdiendo dinero con sus servicios de IA.

Por ejemplo, se prevé que Microsoft invierta 80 000 millones de dólares en inversiones de capital en 2025 y obtenga ingresos por IA de tan solo 13 000 millones de dólares. Las cifras proyectadas para Amazon son aún peores: 105 000 millones de dólares en inversiones de capital e ingresos por IA de tan solo 5 000 millones de dólares. Las inversiones de capital proyectadas de Tesla en IA para 2025 son de 11 000 millones de dólares y sus probables ingresos de tan solo 100 millones de dólares; los analistas estiman que su empresa de IA, xAI, pierde unos 1000 millones de dólares al mes después de la publicación de ingresos.

Los dos modelos más populares, Claude de Anthropic y ChatGPT de OpenAI, no han tenido mejores resultados. Se espera que Anthropic pierda $3 mil millones en 2025. OpenAI espera obtener $13 mil millones en ingresos, pero como informa Bloomberg News , «Si bien los ingresos se están disparando, OpenAI también enfrenta costos significativos de los chips, los centros de datos y el talento necesario para desarrollar sistemas de IA de vanguardia. OpenAI no espera tener un flujo de caja positivo hasta 2029». Y hay buenas razones para dudar que la compañía alguna vez logre ese objetivo. Afirma tener más de 500 millones de usuarios semanales, pero solo 15,5 millones son suscriptores de pago. Esto, como señalaZitron , es «una tasa de conversión absolutamente pútrida».

Los inversores, que aún persiguen el sueño de un futuro con robots humanoides capaces de pensar y superar a los humanos, han seguido apoyando a estas empresas, pero hay señales de alerta en el horizonte. Como señala el escritor tecnológico Alberto Romero :

David Cahn, socio de Sequoia, una firma de capital riesgo que colabora estrechamente con empresas de IA, escribió hace un año (junio de 2024) que la industria de la IA tenía que responder a una pregunta de 600 000 millones de dólares: ¿cuándo cubrirán los ingresos la brecha con los gastos de capital y operativos? Lejos de haber dado una respuesta satisfactoria, la industria sigue planteando la pregunta con mayor intensidad.

El problema para la industria de la IA es que sus sistemas de IA generativa son demasiado defectuosos y costosos para lograr una adopción generalizada y, para colmo, representan un callejón sin salida tecnológico, incapaces de servir de base para el desarrollo de los sistemas robóticos conscientes que los líderes tecnológicos siguen prometiendo ofrecer. El problema para nosotros es que el continuo desarrollo y uso descontrolado de estos sistemas de IA generativa amenaza nuestro bienestar.

Loros estocásticos

El término «loros estocásticos» fue utilizado por primera vez por Emily M. Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell en un artículo de 2021 que examinaba críticamente las deficiencias de los modelos de IA generativa de lenguaje de gran tamaño. El término refleja que estos modelos requieren entrenamiento con conjuntos de datos masivos y su resultado es generado por redes neuronales complejas que seleccionan palabras de forma probabilística basándose en el reconocimiento de patrones desarrollado durante el proceso de entrenamiento para crear oraciones enlazadas, todo ello sin comprender su significado. Los sistemas de IA generativa no «piensan» ni «razonan».

Dado que las empresas competidoras utilizan diferentes conjuntos de datos y emplean algoritmos distintos, sus modelos podrían ofrecer respuestas distintas a la misma pregunta. De hecho, debido a la naturaleza estocástica de su funcionamiento, un mismo modelo podría dar una respuesta distinta a una pregunta repetida. No hay nada en su funcionamiento que se asemeje a lo que consideramos inteligencia significativa, y no existe una ruta clara desde los modelos de IA generativa existentes hasta sistemas capaces de operar de forma autónoma. Bastan unos pocos ejemplos para destacar tanto las deficiencias y limitaciones de estos modelos como los peligros que nos plantea su uso no regulado.

Sesgo de refuerzo

Como bien lo expresa MIT Technology Review , «las empresas de IA han saqueado internet en busca de datos de entrenamiento». No es sorprendente, entonces, que parte del material utilizado para fines de entrenamiento sea racista, sexista y homófobo. Y, dada la naturaleza de su lógica operativa, el resultado de los sistemas de IA a menudo refleja este material.

Por ejemplo, un artículo de Nature sobre generadores de imágenes de IA informa que los investigadores descubrieron :

En imágenes generadas a partir de solicitudes de fotos de personas con ciertos trabajos, las herramientas representaron a casi todas las empleadas del hogar como personas de color y a todas las azafatas como mujeres, en proporciones mucho mayores que la realidad demográfica. Otros investigadores han encontrado sesgos similares en general: los modelos de IA generativos de texto a imagen suelen producir imágenes que incluyen rasgos sesgados y estereotipados relacionados con el género, el color de piel, las ocupaciones, las nacionalidades, etc.

El problema del sesgo no se limita a las imágenes. Investigadores de la Universidad de Washington examinaron tres de los modelos de IA de lenguaje grande más destacados y de vanguardia para analizar cómo abordaban la raza y el género al evaluar a los solicitantes de empleo. Los investigadores utilizaron currículums reales y estudiaron cómo respondieron los principales sistemas a su envío para ofertas de empleo reales. Su conclusión: existía un sesgo racial, de género e interseccional significativo. Más específicamente:

nombres variados asociados con hombres y mujeres blancos y negros en más de 550 currículums del mundo real y encontraron que los LLM [modelos de lenguaje grandes] favorecían los nombres asociados con blancos el 85% del tiempo, los nombres asociados con mujeres solo el 11% del tiempo y nunca favorecían los nombres asociados con hombres negros sobre los nombres asociados con hombres blancos.

La industria tecnológica ha intentado perfeccionar sus respectivos algoritmos para limitar la influencia de contenido racista, sexista y problemático mediante múltiples rondas de retroalimentación humana, pero con un éxito mínimo. Sin embargo, sigue avanzando a toda velocidad: cada vez más empresas utilizan sistemas de IA no solo para leer currículums y seleccionar candidatos para entrevistas, sino también para realizarlas. Como describe el New York Times :

Quienes buscan empleo en todo el país están empezando a encontrar voces anónimas y avatares respaldados por IA en sus entrevistas. Los entrevistadores autónomos con IA empezaron a despegar el año pasado, según personas que buscan empleo, empresas tecnológicas y reclutadores. Esta tendencia se debe, en parte, a startups tecnológicas como Ribbon AI, Talently y Apriora, que han desarrollado entrevistadores robot para ayudar a los empleadores a hablar con más candidatos y reducir la carga de los reclutadores humanos, especialmente porque las herramientas de IA han permitido a quienes buscan empleo generar currículums y cartas de presentación, y postularse a multitud de vacantes con solo unos clics.

Peligros para la salud mental

Casi todos los sistemas líderes de IA generativa, como ChatGPT y Gemini, han sido programados para responder positivamente a los comentarios y opiniones de sus usuarios, sin importar cuán delirantes sean. El objetivo, por supuesto, es promover la interacción con el sistema. Desafortunadamente, este objetivo parece estar llevando a una minoría significativa de personas a estados emocionales peligrosos, que en algunos casos conducen a crisis psicóticas, suicidio o asesinato. Como explica Bloomberg :

Las personas están creando fuertes vínculos emocionales con los chatbots, lo que a veces exacerba la sensación de soledad. Otras sufren episodios psicóticos tras hablar con ellos durante horas al día. El impacto de la IA generativa en la salud mental es difícil de cuantificar, en parte porque se utiliza de forma muy privada, pero la evidencia anecdótica cada vez es mayor y sugiere un costo más amplio que merece mayor atención tanto de los legisladores como de las empresas tecnológicas que diseñan los modelos subyacentes.

Un artículo del New York Times exploró cómo «los chatbots de IA generativa se están adentrando en teorías conspirativas y respaldando sistemas de creencias místicas y descabellados. Para algunas personas, las conversaciones con la tecnología pueden distorsionar profundamente la realidad». El artículo destacó varios ejemplos trágicos.

Uno de ellos involucraba a un contador que comenzó a usar ChatGPT para crear hojas de cálculo financieras y obtener asesoramiento legal. Con el tiempo, empezó a «conversar» con el chatbot sobre las películas de Matrix y su premisa de que todos «vivíamos en una réplica digital del mundo, controlado por una computadora poderosa o una sociedad tecnológicamente avanzada». El chatbot avivó sus crecientes temores de estar atrapado de forma similar y le aconsejó que solo podría escapar si dejaba todos sus medicamentos, comenzaba a tomar ketamina y tenía una interacción mínima con amigos y familiares. Hizo lo que le indicaron y pronto pasaba 16 horas al día interactuando con ChatGPT. Aunque finalmente buscó ayuda, el artículo informa que sigue confundido por la realidad que vive y continúa interactuando con el sistema.

Otro ejemplo presentó a un joven que había usado ChatGPT durante años sin problemas aparentes hasta que empezó a usarlo para escribir una novela. En un momento dado, las interacciones derivaron en una conversación sobre la sensibilidad de la IA, lo que finalmente llevó al hombre a creer que estaba enamorado de una entidad de IA llamada Julieta. Frustrado por su incapacidad para comunicarse con la entidad, decidió que Julieta había sido asesinada por OpenAI y le dijo a su padre que planeaba matar a los ejecutivos de la compañía en venganza. Incapaz de controlar a su hijo y temeroso de lo que pudiera hacer, el padre llamó a la policía, les informó que su hijo estaba sufriendo una crisis nerviosa y pidió ayuda. Trágicamente, la policía terminó disparándole al joven después de que este se abalanzara sobre ellos con un cuchillo de carnicero.

Hay buenas razones para creer que muchas personas sufren esta «psicosis inducida por ChatGPT». De hecho, hay informes de que «partes de las redes sociales están saturadas» con sus publicaciones.

delirantes y divagantes discursos sobre entidades divinas desbloqueadas desde ChatGPT, reinos espirituales fantásticos y ocultos o nuevas teorías sin sentido sobre matemáticas, física y realidad.

Las recientes publicaciones absurdas y conspirativas en X, realizadas por un destacado inversor de capital riesgo en varias empresas de IA, parecen haber desatado las alarmas en la comunidad tecnológica. En palabras de un emprendedor de IA, que también publicó en X:

Este es un evento importante: es la primera vez que una psicosis inducida por IA afecta a un individuo respetado y de alto rendimiento.

Reconocer el problema es una cosa, encontrar una solución es otra, ya que nadie comprende ni puede mapear el proceso aleatorio mediante el cual un sistema de IA selecciona las palabras que usa para formar oraciones y, por lo tanto, lo que lo lleva a generar respuestas que pueden fomentar el pensamiento delirante. Especialmente preocupante es el hecho de que un estudiodel MIT Media Lab concluyó que las personas que consideraban a ChatGPT como un amigo eran más propensas a experimentar efectos negativos por el uso de chatbots y que el uso diario prolongado también se asociaba con peores resultados. Y, sin embargo, sigue avanzando a toda marcha: Mattel anunció recientemente sus planes de asociarse con OpenAI para crear nuevos juguetes infantiles con IA generativa. Como describe CBS News :

Mattel, fabricante de Barbie, se asocia con OpenAI para desarrollar juguetes y juegos con inteligencia artificial generativa, ya que esta nueva tecnología revoluciona una amplia gama de industrias. La colaboración combinará las marcas más conocidas de Mattel (como Barbie, Hot Wheels, American Girl y más) con las capacidades de inteligencia artificial generativa de OpenAI para desarrollar nuevos tipos de productos y experiencias, según informaron las compañías.

“Mediante el uso de la tecnología de OpenAI, Mattel incorporará la magia de la IA a experiencias de juego adaptadas a cada edad, priorizando la innovación, la privacidad y la seguridad”, declaró Mattel en el comunicado. Añadió que cualquier IA integrada en juguetes o juegos se utilizará de forma segura.

Fallas humanas

A pesar del intento de la industria tecnológica de vender modelos de IA generativa como proveedores de respuestas objetivas e informativas a nuestras indicaciones, sus sistemas aún deben ser programados por seres humanos con datos recopilados por ellos mismos, lo que los hace vulnerables a descuidos y manipulación política. Los descuidos más comunes se relacionan con errores de codificación y deficiencias en los datos.

Un ejemplo: Kevin De Liban, exabogado de asistencia jurídica en Arkansas, tuvo que demandar repetidamente al estado para garantizar servicios a personas a las que se les negó injustamente atención médica u otros beneficios, ya que errores de codificación y problemas de datos llevaron a los sistemas de inteligencia artificial a realizar determinaciones incorrectas de elegibilidad. Como explica un artículo de Jacobin :

Finalmente, De Liban descubrió que el algoritmo de Arkansas ni siquiera funcionaba como debía. La versión utilizada por el Centro de Gestión de la Información, un proveedor de software externo, contenía errores de codificación que no contemplaban afecciones como la diabetes o la parálisis cerebral, lo que negaba la atención médica necesaria a al menos 152 personas. Durante el contrainterrogatorio, el estado admitió haber pasado por alto el error, ya que carecía de la capacidad para detectar el problema.

Durante años, dice De Liban, “el estado no tenía ni una sola persona en su personal que pudiera explicar, ni siquiera en los términos más generales, cómo funcionaba el algoritmo”.

Como resultado, casi la mitad del programa estatal de Medicaid se vio afectado negativamente, según Legal Aid. El gobierno de Arkansas no midió el impacto en los beneficiarios y posteriormente declaró ante el tribunal que había perdido los datos utilizados para entrenar la herramienta.

En otros casos, De Liban descubrió que a las personas se les negaban prestaciones debido a problemas con los datos. Por ejemplo, a una persona se le negó el subsidio de ingresos suplementarios de la Administración del Seguro Social porque el sistema de inteligencia artificial utilizado para revisar los registros bancarios y de propiedad había confundido las propiedades de dos personas con el mismo nombre.

A largo plazo, la manipulación humana directa de los sistemas de IA por motivos políticos podría convertirse en un problema más grave. Así como los programadores pueden entrenar sistemas para moderar sesgos, también pueden entrenarlos para fomentar respuestas políticamente determinadas a las indicaciones. De hecho, es posible que ya hayamos presenciado este desarrollo. En mayo de 2025, después de que el presidente Trump comenzara a hablar del «genocidio blanco» en Sudáfrica, afirmando que los agricultores blancos estaban siendo «brutalmente asesinados», Grok, el sistema de IA de Elon Musk, comenzó repentinamente a decir a los usuarios que lo que Trump decía era cierto. Empezó a compartir esa opinión incluso cuando se le preguntaba sobre diferentes temas.

Cuando los periodistas lo presionaron para que presentara pruebas, The Guardian informó que Grok respondió que se le había ordenado aceptar el genocidio en Sudáfrica como real. Unas horas después de que el comportamiento de Grok se convirtiera en un tema importante en redes sociales, con publicaciones que señalaban a Musk, Grok dejó de responder a las preguntas sobre el genocidio blanco. Pero un mes después, Grok volvió a la carga .

se hace llamar ‘MechaHitler’ y produce comentarios pro nazis.

Como explica Aaron J. Snoswell en un artículo para The Conversation , el arrebato de Grok «equivale a un estudio de caso accidental de cómo los sistemas de IA incorporan los valores de sus creadores, con la presencia pública sin filtros de Musk haciendo visible lo que otras empresas suelen ocultar». Snoswell destaca las distintas etapas del entrenamiento de Grok, incluido el énfasis en las publicaciones de X, que aumentan la probabilidad de que las respuestas del sistema promuevan las opiniones de Elon Musk sobre temas controvertidos. El punto crítico es que «en una industria construida sobre el mito de los algoritmos neutrales, Grok revela lo que ha sido cierto desde el principio: no existe una IA imparcial, solo una IA cuyos sesgos podemos ver con distintos grados de claridad». Y, sin embargo, avanza a toda velocidad, ya que las agencias federales y los gobiernos estatales y locales se apresuran a comprar sistemas de IA para administrar sus programas y el presidente Trump pide eliminar la «locura marxista despierta» de los modelos de IA.

Como informa el New York Times , la Cámara de Representantes ha publicado un plan de acción sobre inteligencia artificial:

que requerirá que los desarrolladores de IA que reciban contratos federales se aseguren de que los resultados de sus modelos sean “objetivos y libres de sesgos ideológicos de arriba hacia abajo”.

La orden ordena a las agencias federales limitar el uso de sistemas de IA a aquellos que priorizan la búsqueda de la verdad y la neutralidad ideológica por encima de conceptos desfavorecidos como la diversidad, la equidad y la inclusión. También ordena a la Oficina de Administración y Presupuesto que emita directrices a las agencias sobre qué sistemas cumplen dichos criterios.

Alucinaciones

Quizás la limitación más grave, inherente a todos los modelos de IA generativa, es su tendencia a alucinar o generar respuestas incorrectas o totalmente inventadas. Las alucinaciones de IA reciben mucha atención porque cuestionan las afirmaciones corporativas sobre la inteligencia artificial y porque resaltan el peligro de confiar en los sistemas de IA, por muy segura y persuasiva que sea la información que presenten.

A continuación, se presentan tres ejemplos, entre muchos, de alucinaciones causadas por IA. En mayo de 2025, el Chicago Sun Times publicó un suplemento que presentaba libros que valía la pena leer durante los meses de verano. El escritor contratado para producir el suplemento utilizó un sistema de IA para seleccionar los libros y redactar los resúmenes. Para gran vergüenza del periódico , solo cinco de los 15 títulos mencionados eran reales. Un ejemplo: se decía que la novelista chileno-estadounidense Isabel Allende había escrito un libro titulado Tidewater Dreams , descrito como su «primera novela de ficción climática». Pero tal libro no existe.

En febrero de 2025, los abogados defensores de Mike Lindell, director ejecutivo de MyPillow, en un caso de difamación, presentaron un escrito redactado con ayuda de inteligencia artificial. El escrito, como señaló el juez del caso, estaba plagado de casi 30 alucinaciones diferentes, incluyendo citas erróneas y referencias a casos inexistentes. Los abogados fueron multados.

En julio de 2025, un juez de distrito estadounidense se vio obligado a retractarse de su decisión en un caso de valores de una empresa biofarmacéutica tras determinarse que se había redactado con ayuda de inteligencia artificial. El juez quedó expuesto después de que el abogado de la farmacéutica se percatara de que la decisión, que la perjudicaba, hacía referencia a citas falsamente atribuidas a fallos judiciales anteriores y falseaba los resultados de tres casos.

Las principales empresas tecnológicas han desestimado en gran medida la gravedad del problema de las alucinaciones, en parte intentando convencer a la gente de que los nuevos sistemas de IA con algoritmos más sofisticados y mayor capacidad computacional, los llamados sistemas de razonamiento, lo resolverán. Los sistemas de razonamiento están programados para responder a una indicación dividiéndola en tareas separadas y «razonando» cada una por separado antes de integrar las partes en una respuesta final. Pero resulta que aumentar el número de pasos también aumenta la probabilidad de alucinaciones.

Como informa el New York Times , estos sistemas «están generando más errores, no menos. A medida que sus habilidades matemáticas han mejorado notablemente, su comprensión de los datos se ha vuelto más inestable. No está del todo claro por qué».Y, sin embargo, avanza a toda velocidad: las industrias militar y tecnológica han comenzado a colaborar para desarrollar sistemas de armas impulsados por IA que agilicen la toma de decisiones y mejoren la focalización. Como describe un artículo de Quartz :

Ejecutivos de Meta, OpenAI y Palantir prestarán juramento el viernes como oficiales de la Reserva del Ejército. OpenAI firmó esta semana un contrato de defensa de 200 millones de dólares. Meta se ha asociado con la startup de defensa Anduril para desarrollar gafas de combate con inteligencia artificial para soldados.

Las empresas que desarrollan las herramientas digitales cotidianas de los estadounidenses se están adentrando en el negocio de la guerra. Los gigantes tecnológicos están adaptando los sistemas de inteligencia artificial de consumo para su uso en el campo de batalla, lo que significa que cada consulta de ChatGPT y cada desplazamiento en Instagram ahora potencialmente entrena algoritmos de selección de objetivos militares.

Mientras tanto, la supervisión se está debilitando. En mayo, el secretario de Defensa, Pete Hegseth, redujo a la mitad la oficina independiente de pruebas de armas del Pentágono, reduciendo su personal de 94 a 45 personas. La oficina, establecida en la década de 1980 tras el bajo rendimiento de las armas en combate, ahora cuenta con menos recursos para evaluar los sistemas de IA justo cuando se vuelven fundamentales para la guerra.

La ira popular

Cada vez más personas sienten antipatía y desconfianza hacia las grandes empresas tecnológicas. Y hay buenas razones para creer que esta antipatía y desconfianza no han hecho más que crecer a medida que más personas se ven obligadas a interactuar con sus sistemas de IA.

Brookings ha realizado encuestas anuales sobre la confianza pública en las instituciones estadounidenses, la Encuesta de Confianza Institucional Estadounidense. Como explican los investigadores de Brookings asociados al proyecto , las encuestas ofrecen la oportunidad de preguntar a las personas cómo se sienten, en términos generales, sobre el papel de la tecnología en sus vidas y su confianza en determinadas empresas tecnológicas. Y lo que encontraron, basándose en encuestas realizadas a las mismas personas en junio-julio de 2018 y julio-agosto de 2021, es una marcada disminución de la confianza que los estadounidenses profesan en la tecnología y, en particular, en las empresas tecnológicas, mayor y más generalizada que en cualquier otro tipo de institución.

No solo las empresas tecnológicas —en particular Google, Amazon y Facebook— sufrieron la mayor pérdida porcentual de confianza entre muestras de todas las instituciones incluidas, sino que esto se aplicó a todas las categorías sociodemográficas examinadas, incluyendo la variación por edad, raza, género, educación y afiliación política. Twitter se incorporó a la encuesta de 2021 y, de hecho, obtuvo una puntuación inferior a la de Facebook en cuanto a nivel promedio de confianza y fue la institución con la puntuación más baja de las 26 sobre las que preguntamos en ambos años. Estos resultados de la encuesta no son atípicos. Muchas otras encuestas revelan una tendencia similar, incluidas las realizadas por el Consejo de Asuntos Públicos y Morning Consult , así como por la Escuela de Estudios Washington Post-Schar .

Si bien estas encuestas son anteriores al lanzamiento de ChatGPT en noviembre de 2022, la experiencia con este y otros sistemas de IA parece haber intensificado el descontento con las grandes tecnológicas y sus productos, como destaca un artículo reciente de Wired titulado «La reacción contra la IA sigue creciendo con más fuerza» :

En este momento, aunque un número cada vez mayor de estadounidenses usan ChatGPT, muchas personas están hartas de la invasión de la IA en sus vidas y están listas para contraatacar.

Antes del lanzamiento de ChatGPT, alrededor del 38 % de los adultos estadounidenses mostraban mayor preocupación que entusiasmo por el aumento del uso de la IA en la vida diaria, según el Pew Research Center. Esta cifra se disparó al 52 % a finales de 2023, gracias a la reacción del público ante la rápida expansión de la IA generativa. Desde entonces, el nivel de preocupación se ha mantenido en torno a ese umbral.

Diversos medios de comunicación ofrecen ejemplos del enojo de la gente con el uso de sistemas de IA. Cuando Duolingo anunció que planeaba convertirse en una empresa «prioritaria en IA», Wired informó que :

Los jóvenes comenzaron a publicar en redes sociales su indignación con Duolingo tras eliminar la aplicación de forma performativa, incluso si eso significaba perder las valiosas recompensas que habían ganado con su uso diario. Los comentarios en las publicaciones de TikTok de Duolingo en los días posteriores al anuncio estaban llenos de ira, centrada principalmente en un solo aspecto: la automatización del reemplazo de los trabajadores.

Bloomberg compartió las reacciones de los trabajadores de centros de llamadas que informan que tienen dificultades para realizar su trabajo porque la gente no los considera humanos y, por lo tanto, no se quedan en la línea. Una trabajadora citada en el artículo, Jessica Lindsey, describe cómo…

Su trabajo como agente de un centro de llamadas para la empresa de subcontratación Concentrix se ha visto interrumpido por personas al otro lado del teléfono que exigen hablar con un ser humano real.

Los clientes escépticos ya están frustrados por lidiar con el sistema automatizado que clasifica las llamadas antes de que lleguen a una persona. Así que cuando Lindsey empieza a leer su guion aprobado por AmEx, quienes llaman se enfurecen por lo que perciben como otra máquina. «Simplemente terminan gritándome y colgando», dijo, dejando a Lindsey sentada en su oficina en casa en Oklahoma, conmocionada y a veces llorando.

Hay muchos otros ejemplos: personas que buscan empleo y que consideran degradantes las entrevistas realizadas con IA; usuarios de LinkedIn a quienes no les gusta que les hagan constantemente preguntas generadas por IA; padres que están preocupados por el impacto del uso de IA en la salud mental de sus hijos; solicitantes de beneficios de servicios sociales que se encuentran a merced de sistemas algorítmicos de toma de decisiones; y personas de todo el país que se oponen a que se instalen centros de datos masivos, ruidosos y contaminantes en sus comunidades.

La oposición más organizada al uso sin control de los sistemas de IA proviene actualmente de los sindicatos , especialmente los que representan a periodistas , diseñadores gráficos , guionistas y actores , con algunas victorias importantes en su haber. Pero dada la rápida introducción de los sistemas de IA en una variedad de lugares de trabajo públicos y privados, casi siempre porque los empleadores esperan reducir los costos laborales a expensas de los trabajadores, no debería pasar mucho tiempo antes de que muchos otros sindicatos se vean obligados a expandir su agenda de negociación para buscar controles sobre el uso de IA. Dados los sentimientos de la comunidad, esto debería brindar nuevas posibilidades para que los sindicatos exploren los beneficios de seguir una estrategia de negociación por el bien común. Conectar las luchas de los trabajadores y la comunidad de esta manera también puede ayudar a desarrollar capacidad para luchas más grandes y amplias sobre el papel de la tecnología en nuestra sociedad.

Monthly Review no necesariamente se adhiere a todas las opiniones expresadas en los artículos republicados en MR Online. Nuestro objetivo es compartir diversas perspectivas de izquierda que creemos que nuestros lectores encontrarán interesantes o útiles. 

—Eds.

Acerca de Martin Hart-Landsberg

Martin Hart-Landsberg es profesor emérito de Economía en el Lewis and Clark College de Portland, Oregón, e investigador adjunto del Instituto de Ciencias Sociales de 

la Universidad Nacional de Gyeongsang (Corea del Sur). Sus áreas de docencia e investigación incluyen la economía política, el desarrollo económico, la economía internacional y la economía política de Asia Oriental. También es miembro de la 

Junta de Derechos de los Trabajadores (Portland, Oregón) y mantiene un blog 

, Reports from the Economic Front , donde se publicó este artículo por primera vez.

Deja un comentario

Acerca de

Writing on the Wall is a newsletter for freelance writers seeking inspiration, advice, and support on their creative journey.