Giorgios Galanis (JACOBIN), 3 de Noviembre de 2025
El peligro de la inteligencia artificial no es una rebelión de robots al estilo Terminator , sino que los capitalistas tecnológicos utilicen la tecnología para impulsar sus propios intereses. Arrebatarles el control es la mejor manera de garantizar que la tecnología algorítmica sirva al bien social.

Reseña de * Los medios de predicción: Cómo funciona realmente la IA (y quién se beneficia)* de Maximilian Kasy (University of Chicago Press, 2025).
Cuando un algoritmo predictivo denegó a miles de solicitantes negros la aprobación justa de hipotecas en 2019, no fue un fallo, sino una decisión de diseño, que refleja las prioridades de los gigantes tecnológicos impulsados por las ganancias. En * Los medios de predicción: Cómo funciona realmente la IA (y quién se beneficia)* , el economista de Oxford Maximilian Kasy argumenta que tales resultados no son accidentes de la tecnología, sino los resultados predecibles de quién la controla
Así como Karl Marx identificó el control de los medios de producción como la base del poder de clase, Kasy identifica los “medios de predicción” (datos, infraestructura computacional, experiencia técnica y energía) como el fundamento del poder en la era de la IA. Como tal, la IA se convierte en un campo de batalla, donde los algoritmos dan forma al futuro para servir a los dueños de la tecnología en lugar de a la clase trabajadora. La provocativa tesis de Kasy expone los objetivos de la IA como elecciones deliberadas, codificadas por quienes controlan sus recursos para favorecer las ganancias sobre el bien social. Solo al tomar el control democrático de los medios de predicción podemos asegurar que la IA sirva a la sociedad en general en lugar de a las ganancias de los gigantes tecnológicos
Kasy comienza desmitificando la IA, fundamentándola en la mecánica del aprendizaje automático, donde los algoritmos predicen resultados futuros basándose en datos históricos. Pero ¿qué resultados futuros están programados para predecir los algoritmos? Las plataformas de redes sociales, por ejemplo, recopilan enormes cantidades de datos de usuarios para predecir qué anuncios maximizan los clics y, por lo tanto, las ganancias esperadas. En su afán por generar interacción, los algoritmos han aprendido que la indignación, la inseguridad y la envidia mantienen a los usuarios desplazándose constantemente. El resultado es un aumento de la ansiedad, la falta de sueño y la angustia relacionada con la imagen corporal —especialmente entre los adolescentes— impulsado por la comparación algorítmica y la publicidad dirigida.
Las herramientas predictivas utilizadas en el ámbito del bienestar social o la contratación producen efectos similares. Los sistemas diseñados para identificar a los solicitantes de “alto riesgo” se basan en datos históricos sesgados, automatizando así la discriminación al negar beneficios o entrevistas de trabajo a grupos ya marginados. Incluso cuando la IA parece promover la diversidad, suele hacerlo porque la inclusión aumenta la rentabilidad, por ejemplo, mejorando el rendimiento del equipo o la reputación de la marca. En tales casos, existe un nivel “óptimo” de diversidad: aquel que maximiza los beneficios esperados. Kasy también explora el creciente papel de la IA en el trabajo y la automatización. En los entornos laborales, la IA puede potenciar las capacidades humanas o reemplazarlas por completo, generando desempleo para algunos y concentrando la riqueza para otros.
Esta claridad técnica sienta las bases para el argumento más amplio de Kasy: la IA no se trata solo de predicción, sino de qué se predice y para quién. La recopilación y el análisis de datos pueden, de hecho, impulsar bienes públicos como la investigación médica o la educación, mejorando la salud y ampliando las capacidades humanas. Sin embargo, los objetivos codificados en los sistemas de IA reflejan, en última instancia, las prioridades de quienes controlan los “medios de predicción”. Si los trabajadores, en lugar de los propietarios corporativos, dirigieran el desarrollo tecnológico, sugiere Kasy, los algoritmos podrían priorizar salarios justos, seguridad laboral y bienestar público por encima de las ganancias
Pero ¿cómo podemos tomar el control democrático de los medios de predicción? En una línea similar a la de Erik Olin Wright, quien abogó por una combinación de estrategias transformadoras en Cómo ser anticapitalista en el siglo XXI , Kasy también propone una serie de acciones complementarias en lugar de una única solución. Estas incluyen impuestos para cubrir los costos sociales, regulaciones para prohibir las prácticas de datos perjudiciales y fideicomisos de datos: instituciones colectivas que gestionan datos en nombre de las comunidades para fines públicos, como la investigación en salud. Los agentes del cambio, en opinión de Kasy, no pueden ser las propias empresas tecnológicas, cuyo deber principal es con los accionistas. En cambio, el cambio debe ser impulsado por los trabajadores, los consumidores, los periodistas y los legisladores que pueden ejercer influencia estratégica a través de diversos medios: desde huelgas hasta boicots, mala prensa, litigios y regulación
La fortaleza del libro radica en vincular el diseño técnico de la IA con su economía política. Kasy proporciona una base técnica crucial, mostrando cómo los algoritmos codifican el poder, como se observa en la herramienta judicial de IA COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), que marcó desproporcionadamente a los acusados negros como de alto riesgo, afianzando el racismo sistémico. Su trabajo sirve como un vínculo perdido con las críticas más amplias de Cédric Durand y Yanis Varoufakis sobre el “tecnofeudalismo” y el Capitalismo de vigilancia de Shoshana Zuboff , que exponen las ganancias de tipo renta de las plataformas digitales y la mercantilización de los datos
Kasy fundamenta sus críticas en los mecanismos técnicos de la IA. Estos algoritmos deciden quién es contratado, recibe atención médica o ve qué noticias, priorizando a menudo el beneficio económico sobre el bienestar social. Compara la privatización de datos con el cercamiento histórico de los bienes comunes, argumentando que el control de los gigantes tecnológicos sobre los medios de predicción concentra el poder, socava la democracia y profundiza la desigualdad.
Desde algoritmos judiciales hasta publicaciones en redes sociales, los sistemas de IA moldean cada vez más nuestras vidas de maneras que reflejan las prioridades privadas de sus creadores. Como tales, no deben considerarse maravillas tecnológicas neutrales, sino sistemas moldeados por fuerzas sociales y económicas. El verdadero conflicto no reside entre humanos y máquinas, como en la rebelión de robots de Terminator, sino entre los capitalistas tecnológicos que controlan las máquinas y el resto de nosotros. El futuro de la IA no depende de la tecnología en sí, sino de nuestra capacidad colectiva para construir instituciones como fideicomisos de datos para gobernarla democráticamente. Kasy nos recuerda que la IA no es una fuerza autónoma, sino una relación social, un instrumento de poder de clase que puede ser reconfigurado para fines colectivos. La pregunta es si tenemos la voluntad política para aprovecharla.
Deja un comentario