Inés García Rábade (PÚBLICO), 10 de Mayo de 2026
- Datos del Instituto Nacional de Estadística (INE) del primer trimestre de 2025 ya indicaban que el 21% de las empresas con más de 10 trabajadores utilizan herramientas de IA.
- Expertos analizan para ‘Público’ el impacto de estos sistemas en la destrucción de empleo y en las condiciones laborales de las plantillas. Esther Paniagua cree que los sistemas de IA en el ámbito del trabajo deberían pasar una auditoría independiente.

La Inteligencia Artificial (IA) se extiende a toda velocidad. Una consulta rápida a ChatGPT, una petición musical a Alexa o una sutil sugerencia del autocorrector de WhatsApp. El mundo del trabajo no es una excepción. La IA ya viste mono en las fábricas, se sienta en las oficinas y decide desde los despachos. Porque muchas veces son los algoritmos los que condicionan dónde (y si) trabajas, a través de los sistemas automatizados de selección de personal; cuál es tu desempeño en tu puesto de trabajo, por medio de los controles biométricos de productividad; a qué tareas o promociones tienes acceso o cuándo decide la empresa prescindir de tus servicios, con la automatización de las cartas de despido.
«La democracia se dirime ya en los datos». Así inauguraba el lunes 4 de mayo entre las paredes del Congreso la ministra de Trabajo, Yolanda Díaz, la jornada Inteligencia artificial y el futuro en el trabajo. Un encuentro que la vicepresidenta segunda presentaba como «el debate de la época». «Los algoritmos no son neutrales, son un lugar de poder», ampliaba Díaz, instando a ponerlos «al servicio de la mayoría social». Para, protegiendo los puestos de trabajo, reducir la jornada laboral y aumentar, al mismo tiempo, la productividad.
Conseguirlo, ampliaba la ministra, implica dar una serie de pasos en materia regulatoria. Como extender a otros sectores la ley rider —que obliga a la transparencia algorítmica de las plataformas digitales de reparto como Glovo o Uber Eats—; impulsar una agencia pública de auditoría algorítmica o reconocer el derecho de los trabajadores a no entrenar con su voz, sus gestos o su trabajo a una Inteligencia Artificial. Europa también tiene que cumplir su papel, instaba Díaz. Y es que, advertía, «nos estamos convirtiendo en una colonia digital de EEUU«. Para revertir esta dinámica, la ministra lanzaba tres propuestas: un indicador europeo de riesgo de automatización para detectar sectores y trabajadores vulnerables; medidas fiscales para grabar la sustitución de plantilla por IA y, sobre todo, «triplicar» la inversión en transformación digital. O lo que es lo mismo, que Europa y España apuesten por su propia Inteligencia Artificial. «Porque eso también es autonomía», insistía Díaz: «Disponer de una IA europea, pública, democrática y auditable».
«Mecanismos y leyes ya tenemos», responde a la ministra, en conversación con Público, José Varela, responsable de IA y Digitalización de UGT. Para empezar, el propio Estatuto de los Trabajadores. «En el artículo 64.4, esta ley obliga a las empresas que usen IA a informar a la representación de los trabajadores sobre sus parámetros, reglas y variables», explica el sindicalista. Para seguir, el Reglamento Europeo de Inteligencia Artificial. «En el artículo 26.7, especifica que, antes de poner cualquier IA en funcionamiento, la empresa tiene que informar a la representación de los trabajadores para que pueda compartir su opinión y emitir el informe preceptivo», continúa Varela. Dos textos a los que Borja Adsuara, abogado y experto en derecho digital, añade otros dos: la Carta de Derechos Digitales —sin valor normativo— y el Reglamento General de Protección de Datos. ¿El problema? «Las empresas no cumplen«, condesa el responsable de UGT, convirtiendo todas las normativas en «leyes vacías». Papel mojado.
Las sanciones no ayudan, pone sobre la mesa Varela. «Una empresa que incumple el deber de información afronta una multa de unos 2.500 euros«, desarrolla el responsable de UGT. Una cantidad «irrisoria», no ya para las grandes empresas, también para las medianas. «Sale a cuenta no ser transparente«, abrocha el sindicalista, exigiendo sanciones suficientes, disuasorias y «que tengan un efecto de aprendizaje». Otro frente de batalla, amplía Varela, son las auditorías. «Las empresas no son capaces de pasar ni una», critica Varela.
En España, explica Varela con los últimos datos del INE en la mano (primer trimestre de 2025), el 21% de las empresas con más de 10 trabajadores utilizan ya herramientas de IA. Muchas de ellas, amplía el sindicalista, «de proveedores terceros» que, «bajo promesas de neutralidad e infalibilidad», esconden sesgos. De género, raciales, de edad e incluso por tener cargas familiares. «Nos hemos encontrado, por ejemplo, con algoritmos que discriminaban por número y edad de los hijos», confirma el sindicalista.
¿Debería auditar los algoritmos una entidad pública? «Ya hay una Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) en España», recuerda Adsuara. Si bien, añade el también analista, «no se le conoce ninguna actividad todavía». Para Esther Paniagua, analista tecnológica y autora de la guía gratuita Manual de Defensa Algorítmica (Prodigioso Volcán), los sistemas de IA en el ámbito del trabajo deberían pasar una auditoría independiente, sí, pero no a cargo del Gobierno, sino de organizaciones «externas y expertas en la materia».
¿Destruye la IA puestos de trabajo?
El primer cuatrimestre de 2026 se ha saldado con una ola de despidos colectivos en grandes multinacionales. Con tres grandes afectados: el sector tecnológico, la banca y las consultorías. El portal especializado Layoffs.fyi estima en 93.294 los trabajadores afectados en todo el mundo por recortes de plantilla relacionados con la IA y en 106 las compañías que los han impulsado. Oracle encabeza el ranking con más de 30.000 despidos, el 20% de su personal. Una lista en la que repuntan otras empresas de la talla de Amazon —con 28.000 despidos, 735 en España—, Microsoft —con un recorte del 7% de su plantilla en EEUU, unos 8.750 personas— o Meta —con la rescisión de contrato al 10% de sus trabajadores, más de 8.000 personas—.
«Nos hemos encontrado con cuatro tipos de justificaciones de un despido colectivo», explica Varela. La primera, la de la compañía de Jeff Bezos: «El trabajo que realizaban esas personas lo está haciendo ya una IA». La segunda, al estilo de Telefónica: «En previsión de que, a medio plazo, lo realicen sistemas de IA». La tercera, como consecuencia de «cambios en el sector o en la competencia» que afectan a las cuentas de la compañía. La última, maquillando el verdadero motivo del despido. Una estrategia que ha desplegado, por ejemplo, la multinacional francesa Capgemini. «Lo que pasa en España», concentra el foco Varela, «es que sale demasiado barato despedir». La reforma del despido es, de hecho, una de las reivindicaciones centrales de los sindicatos, que exigen mayores indemnizaciones, recuperar los salarios de tramitación y que, en caso de infracción, el derecho a restablecer el contrato laboral recaiga en el trabajador.
«La IA no destruye nada», argumenta, por su parte, Paniagua. Poniendo nombre a los verdaderos responsables: «Los directivos y gestores que toman las decisiones y los diseñadores de plataformas creadas específicamente para reemplazar a trabajadores humanos». Por si fuera poco, continúa la analista, la IA se usa muchas veces como «excusa» para las causas reales de despido, como recortar gastos o cerrar proyectos y equipos «poco rentables». En cualquier caso, interviene Adsuara, el verdadero debate está en cómo asumir el volumen de trabajadores que empiezan a quedarse fuera del mercado. «Siempre va a haber un gap de gente que no pueda reciclarse», advierte el abogado, recuperando una de las propuestas más extendidas: la imposición de algún tipo de tasa para las empresas que sustituyan trabajadores por IA.
Hay más vías para proteger los puestos de trabajo, sigue el docente de la Universidad Complutense de Madrid (UCM). Por ejemplo, obligar a las empresas a ofrecer a su personal formación en competencias digitales y en IA. «Un compromiso que recogen ya muchos convenios», razona Adsuara y que debería combinarse, para el analista, con derivar mano de obra hacia sectores donde la presencia humana es insustituible, como la atención al ciudadano o los cuidados, donde «nunca hay suficientes manos». A estas medidas, Varela añade una más: el compromiso de las empresas con la reducción de la jornada laboral de su plantilla. «En vez de recortar en trabajadores, que recorten en horas de trabajo», sentencia el sindicalista.
¿Y una IA Europea? «No podemos pretender competir con los modelos comerciales de IA generativa», zanja Paniagua, sin cerrar la puerta a invertir en modelos de código abierto «que prediquen con el ejemplo». Esto es, que sean éticos y ciberseguros. Para Adsuara, la clave está en la regulación de los modelos ajenos a la UE. «No podemos volver a la Edad Media, con señores feudales que ahora son digitales y globales», denuncia el letrado en referencia al séquito de tecnoligarcas que rodea a la Administración Trump y a la reciente propuesta política del CEO de Palantir Technologies. «Es tan fácil como que, si una empresa quiere prestar servicios en el mercado europeo, cumpla con las reglas comerciales, tributarias, laborales y medioambientales de Europa«, concluye el analista.
Deja un comentario