Publicado originalmente en inglés por The Syllabus
Esta es una historia sobre las condiciones paupérrimas de superexplotación de trabajadores subcontratados en África por algunas empresas tecnológicas que nadan en beneficios. Es la dinámica infernal del capital.
Wabe no esperaba ver los rostros de sus amigos en las sombras. Pero sucedió después de apenas unas semanas en el trabajo.
Recientemente había firmado con Sama, una empresa de tecnología con sede en San Francisco y un importante centro en la capital de Kenia. La empresa intermediaria proporcionaba la mayor parte de los servicios de moderación de contenidos de Facebook para África. Wabe, cuyo nombre hemos cambiado para proteger su seguridad, había impartido anteriormente cursos de ciencias a estudiantes universitarios en su Etiopía natal.
¿Por qué escribimos esta historia?
Las empresas tecnológicas más grandes del mundo tienen hoy más poder y dinero que muchos gobiernos. Esta historia ofrece una inmersión profunda en las batallas judiciales en Kenia que podrían poner en peligro el modelo de subcontratación sobre el cual Meta ha construido su imperio global.
Ahora, el joven de 27 años estaba revisando cientos de fotos y videos de Facebook cada día para decidir si violaban las reglas de la compañía en temas que iban desde el discurso de odio hasta la explotación infantil. Tenía entre 60 y 70 segundos para tomar una decisión, examinando cientos de contenidos durante un turno de ocho horas.
Un día de enero de 2022, el sistema marcó un vídeo para que lo revisara. Abrió una transmisión en vivo en Facebook de una escena macabra de la guerra civil en su país de origen. Lo que vio a continuación fue que decenas de etíopes eran “masacrados como ovejas”, dijo.
Entonces Wabe miró más de cerca sus rostros y jadeó. «Eran personas con las que crecí», dijo en voz baja. Gente que conocía de casa. «Mis amigos.»
Wabe saltó de su silla y miró la pantalla con incredulidad. Sintió que la habitación se cerraba a su alrededor. El pánico aumentó y le pidió a su supervisor un descanso de cinco minutos. «No tienes cinco minutos», espetó. Apagó su computadora, se levantó del piso y se dirigió directamente a un área tranquila afuera del edificio, donde pasó 20 minutos llorando solo.
Wabe había estado construyendo una vida en Kenia mientras, en casa, se desataba una guerra civil que se cobró la vida de unas 600.000 personas entre 2020 y 2022. Ahora lo estaba viendo en vivo en la pantalla que tenía ante él.
Ese vídeo fue sólo el comienzo. Durante el año siguiente, el trabajo lo puso en contacto con videos que todavía no puede deshacerse: grabaciones de personas decapitadas, quemadas vivas y devoradas.
“La palabra malo se queda corto para lo que vimos”, dijo.
Sin embargo, tuvo que permanecer en el trabajo. El salario era bajo (menos de dos dólares la hora, me dijo Wabe), pero regresar a Etiopía, donde había sido torturado y encarcelado, estaba fuera de discusión. Wabe trabajó con docenas de otros inmigrantes y refugiados de otras partes de África que enfrentaron circunstancias similares. El dinero era demasiado escaso (y la vida demasiado incierta) para hablar o rechazar el trabajo. Así que él y sus colegas mantuvieron la cabeza gacha y se prepararon cada día para la avalancha de imágenes aterradoras.
Con el tiempo, Wabe comenzó a ver a los moderadores como “soldados disfrazados”, una fuerza laboral mal remunerada que trabajaba en las sombras para hacer que Facebook fuera utilizable para miles de millones de personas en todo el mundo. Pero también notó una sombría ironía en el papel que él y sus colegas desempeñaron para los usuarios de la plataforma: «Todos están a salvo gracias a nosotros», dijo. «Pero no lo somos».
Wabe dijo que decenas de sus antiguos colegas en las oficinas de Sama en Nairobi sufren ahora de trastorno de estrés postraumático. Wabe también ha luchado contra pensamientos suicidas. “Cada vez que voy a un lugar alto pienso: ¿Qué pasaría si salto?” se preguntó en voz alta. “Hemos quedado arruinados. Nosotros éramos los que protegíamos a todo el continente africano. Por eso nos trataron como esclavos”.

Para la mayoría de las personas que utilizan Internet (la mayor parte del mundo), este tipo de trabajo es literalmente invisible. Sin embargo, es un componente fundamental del modelo de negocio de las Big Tech. Si los sitios de redes sociales estuvieran inundados de videos de asesinatos y agresiones sexuales, la mayoría de la gente se mantendría alejada de ellos, al igual que los anunciantes que generan miles de millones de ingresos a las empresas.
En todo el mundo, se estima que 100.000 personas trabajan para empresas como Sama, contratistas externos que brindan servicios de moderación de contenido para empresas como Meta, la empresa matriz de Facebook, Google y TikTok. Pero si bien ocurre en un escritorio, principalmente en una pantalla, las exigencias y condiciones de este trabajo son brutales. Moderadores actuales y anteriores que conocí en Nairobi en julio me dijeron que este trabajo los había dejado con trastorno de estrés postraumático, depresión, insomnio y pensamientos suicidas.
Estos “soldados disfrazados” están llegando a un punto de quiebre. Gracias a personas como Wabe, Kenia se ha convertido en la zona cero de una batalla por el futuro de la moderación de contenidos en África y más allá. Por un lado están algunas de las empresas tecnológicas más poderosas y rentables del mundo. Por el otro, están los jóvenes moderadores de contenidos africanos que salen de detrás de sus pantallas y exigen que las grandes empresas tecnológicas tengan en cuenta el costo humano de su empresa.
En mayo, más de 150 moderadores en Kenia, que mantienen a lo peor de lo peor fuera de plataformas como Facebook, TikTok y ChatGPT, anunciaron su campaña para crear un sindicato de moderadores de contenido en toda África. La unión sería la primera de su tipo en el continente y potencialmente en el mundo.
También hay importantes demandas pendientes ante los tribunales de Kenia contra Meta y Sama. Más de 180 moderadores de contenido, incluido Wabe, están demandando a Meta por 1.600 millones de dólares por malas condiciones laborales, bajos salarios y lo que alegan fue un despido injusto después de que Sama terminara su acuerdo de moderación de contenido con Meta y Majorel recogiera el contrato. Los demandantes dicen que fueron incluidos en la lista negra para no volver a postularse para sus puestos de trabajo después de que Majorel interviniera. En agosto, un juez ordenó a ambas partes llegar a un acuerdo extrajudicial, pero la mediación fracasó el 16 de octubre después de que los abogados de los demandantes acusaran a Meta de arruinar el negociaciones e ignorar las solicitudes de los moderadores de servicios de salud mental y compensación. La demanda pasará ahora al tribunal de empleo y relaciones laborales de Kenia, cuya próxima audiencia está prevista para el 31 de octubre.
Los casos contra Meta no tienen precedentes. Según Amnistía Internacional, es la “primera vez que Meta Platforms Inc será sometida significativamente a un tribunal de justicia en el sur global”. Los próximos fallos judiciales podrían poner en peligro el estatus de Meta en Kenia y el modelo de subcontratación de moderación de contenidos sobre el cual ha construido su imperio global.
Meta no respondió a las solicitudes de comentarios sobre las condiciones laborales y salariales de los moderadores en Kenia. En una declaración enviada por correo electrónico, un portavoz de Sama dijo que la compañía no puede comentar sobre litigios en curso, pero que está «complacida de estar en mediación» y cree que «lo mejor para todas las partes es llegar a una resolución amistosa».
Odanga Madung, periodista residente en Kenia y miembro de la Fundación Mozilla, cree que la oleada de litigios y organización marca un punto de inflexión en la trayectoria laboral tecnológica del país.
“Este es el momento de explotación laboral de la industria tecnológica”, dijo Madung. “Todas las grandes industrias corporativas aquí (petróleo y gas, la industria de la moda, la industria cosmética) han sido en algún momento objeto de un escrutinio muy agudo por su reputación de prácticas extractivas y de tipo muy colonial”.
Es posible que Nairobi pronto sea testigo de un cambio importante en la economía laboral de la moderación de contenidos. Pero también ofrece un estudio de caso del poderoso ascenso de esta industria. La gran ciudad capital, a veces llamada “Silicon Savanna”, se ha convertido en un centro para trabajos de moderación de contenido subcontratados, atrayendo a trabajadores de todo el continente para revisar material en sus idiomas nativos. Una fuerza laboral educada, predominantemente de habla inglesa, facilita que los empleadores extranjeros establezcan oficinas satélite en Kenia. Y la problemática economía del país ha dejado a los trabajadores desesperados por encontrar empleo, incluso cuando los salarios son bajos.
Sameer Business Park, un enorme complejo de oficinas en la zona industrial de Nairobi, alberga a Nissan, el Banco de África y la sede local de Sama. Pero a sólo unos kilómetros de distancia se encuentra uno de los asentamientos informales más grandes de Nairobi, un conjunto de casas hechas con trozos de madera y hojalata corrugada. Los orígenes del barrio pobre se remontan a la época colonial , cuando el terreno en el que se asienta era una granja propiedad de colonos blancos. En la década de 1960, después de la independencia, el área circundante se convirtió en un distrito industrial, atrayendo a inmigrantes y trabajadores de fábricas que instalaron viviendas improvisadas en el área adyacente al parque empresarial Sameer.
Para empresas como Sama, las condiciones aquí estaban dadas para la inversión en 2015, cuando la empresa estableció una presencia comercial en Nairobi. Con sede en San Francisco, la empresa que se describe a sí misma como “IA ética” tiene como objetivo “brindar a personas de comunidades marginadas capacitación y conexiones para un trabajo digital digno”. En Nairobi, ha obtenido su mano de obra de los residentes de los asentamientos informales de la ciudad, incluidos 500 trabajadores de Kibera, uno de los barrios marginales más grandes de África. En un correo electrónico, un portavoz de Sama confirmó que los moderadores en Kenia ganaban entre 1,46 y 3,74 dólares por hora después de impuestos.
Grace Mutung’u, investigadora de derechos digitales de Open Society Foundations con sede en Nairobi, me puso esto en un contexto local. A primera vista, trabajar para un lugar como Sama parecía un gran paso adelante para los jóvenes de los barrios marginales, muchos de los cuales tenían raíces familiares en el trabajo en fábricas. Era menos exigente físicamente y más lucrativo. En comparación con el trabajo manual, la moderación de contenidos «parecía muy digna», dijo Mutung’u. Recordó haber hablado con moderadores recién contratados en un asentamiento informal cerca de la sede de la empresa. A diferencia de sus padres, muchos de ellos eran graduados de la escuela secundaria, gracias a una iniciativa gubernamental de mediados de la década de 2000 para que más niños asistieran a la escuela.
“Estos niños simplemente me decían que ser contratado por Sama era un sueño hecho realidad”, me dijo Mutung’u. «Estamos consiguiendo empleos adecuados, nuestra educación es importante». Estos trabajadores más jóvenes, continuó Mutung’u, “pensaron: ‘Lo logramos en la vida’”. Pensaron que habían dejado atrás la pobreza y los trabajos agotadores que desgastaban el cuerpo de sus padres. Hasta que, añadió, “los problemas de salud mental empezaron a devorarlos”.
Hoy en día, el 97% de la fuerza laboral de Sama se encuentra en África, según un portavoz de la empresa. Y a pesar de su compromiso declarado de proporcionar empleos “dignos”, ha recibido críticas por mantener los salarios bajos. En 2018, el difunto fundador de la empresa se opuso al aumento de los salarios de los trabajadores empobrecidos del barrio marginal, argumentando que «distorsionaría los mercados laborales locales» y tendría «un impacto potencialmente negativo en el costo de la vivienda, el costo de los alimentos en las comunidades en las que nuestros trabajadores prosperan”.

La moderación de contenidos no se convirtió en una industria en sí misma por accidente. En los primeros días de las redes sociales, cuando “no seas malvado” todavía era el principal principio rector de Google y Facebook todavía aspiraba descaradamente a conectar el mundo, este trabajo lo realizaban empleados internos de las plataformas de las grandes tecnologías . Pero a medida que las empresas aspiraban a escalas mayores, buscando usuarios en cientos de mercados en todo el mundo, quedó claro que sus sistemas internos no podían detener la marea de contenido violento, odioso y pornográfico que inundaba las noticias de la gente. Así que siguieron una página del manual de globalización de las corporaciones multinacionales: decidieron subcontratar la mano de obra.
Más de una década después, la moderación de contenidos es ahora una industria que se prevé alcanzará los 40.000 millones de dólares en 2032. Sarah T. Roberts, profesora de estudios de la información en la Universidad de California en Los Ángeles, escribió el estudio definitivo sobre la industria de la moderación en su libro de 2019 “Detrás de la pantalla”. Roberts estima que cientos de empresas están distribuyendo estos servicios en todo el mundo y empleando a más de 100.000 moderadores. En sus propios documentos de transparencia, Meta dice que más de 15.000 personas moderan su contenido en más de 20 sitios alrededor del mundo. Algunos (no dice cuántos) son empleados a tiempo completo del gigante de las redes sociales, mientras que otros (no dice cuántos) trabajan para los socios contractuales de la empresa.
Kauna Malgwi fue una vez moderadora de Sama en Nairobi. Se le asignó la tarea de revisar el contenido de Facebook en su idioma nativo, el hausa. Recordó haber visto a compañeros de trabajo gritar, desmayarse y desarrollar ataques de pánico en el piso de la oficina mientras las imágenes aparecían en sus pantallas. Originaria de Nigeria, Malgwi empezó a trabajar con Sama en 2019, después de llegar a Nairobi para estudiar psicología. Me dijo que también firmó un acuerdo de confidencialidad que le indicaba que enfrentaría consecuencias legales si le decía a alguien que estaba revisando contenido en Facebook. Malgwi estaba confundido por el acuerdo, pero siguió adelante de todos modos. Estaba en la escuela de posgrado y necesitaba el dinero.

Dormir se convirtió en una lucha.
Su apetito desapareció.
Una moderadora de 28 años llamada Johanna describió un deterioro similar en su salud mental después de ver videos en TikTok de violaciones, abuso sexual infantil e incluso de una mujer que termina con su vida frente a sus propios hijos. Johanna trabaja actualmente con la empresa de subcontratación Majorel, revisando contenido en TikTok, y pidió que la identificáramos usando un seudónimo, por temor a represalias por parte de su empleador. Me dijo que es extrovertida por naturaleza, pero después de unos meses en Majorel, se volvió retraída y dejó de salir con sus amigos. Ahora se disocia para pasar el día en el trabajo. “Te conviertes en una persona diferente”, me dijo. «Estoy entumecida.»
Esta no es la experiencia que la multinacional con sede en Luxemburgo, que emplea a más de 22.000 personas en todo el continente africano, promociona en sus materiales de contratación. En una página sobre sus servicios de moderación de contenidos, el sitio web de Majorel muestra una foto de una mujer poniéndose unos auriculares y riendo. Destaca el programa «Feel Good» de la empresa, que se centra en «el bienestar de los miembros del equipo y el apoyo a la resiliencia».
Según la compañía, estos recursos incluyen apoyo psicológico 24 horas al día, 7 días a la semana para los empleados «junto con un conjunto integral de iniciativas de salud y bienestar que reciben grandes elogios de nuestra gente», dijo Karsten König, vicepresidente ejecutivo de Majorel, en un declaración enviada por correo electrónico. «Sabemos que brindar un entorno de trabajo seguro y de apoyo para nuestros moderadores de contenido es la clave para brindar servicios excelentes para nuestros clientes y sus clientes. Y eso es lo que nos esforzamos por hacer todos los días”.
Pero los recursos de salud mental de Majorel no han ayudado a aliviar la depresión y la ansiedad de Johanna. Ella dice que la compañía ofrece moderadores en su oficina de Nairobi con terapeutas en el lugar que atienden a los empleados en sesiones de “bienestar” individuales y grupales. Pero Johanna me dijo que dejó de asistir a las sesiones individuales después de que su gerente se le acercara sobre un tema que compartió confidencialmente con su terapeuta. “Me dijeron que era un espacio seguro”, explicó Johanna, “pero siento que violaron esa parte de la confidencialidad por eso no hago terapia individual”. TikTok no respondió a una solicitud de comentarios mediante publicación.
En cambio, buscó otras formas de sentirse mejor. La naturaleza ha sido especialmente curativa. Siempre que puede, Johanna se va al bosque Karura, un exuberante oasis en el corazón de Nairobi. Una tarde, me llevó a uno de sus lugares favoritos, una cascada estrepitosa bajo un dosel de árboles. Aquí es donde intenta olvidarse de las imágenes que la mantienen despierta por las noches.
Johanna sigue atormentada por un vídeo que vio en Tanzania, donde veía a una pareja de lesbianas atacada por una turba, desnudada y golpeada. Pensó en ellos una y otra vez durante meses. “Me preguntaba: ‘¿Cómo están? ¿Están muertos ahora mismo?’” Por la noche, se quedaba despierta en su cama, repitiendo la escena en su mente.
“No podía dormir pensando en esas mujeres”.
La experiencia de Johanna deja al descubierto otra cruda realidad de este trabajo. Ella no podía ayudar a las víctimas. Sí, podía eliminar el vídeo en cuestión, pero no podía hacer nada para poner a salvo a las mujeres que fueron brutalizadas. Este es un escenario común para moderadores de contenido como Johanna, a quienes no sólo ven estos horrores en tiempo real, sino que se les pide simplemente que los eliminen de Internet y, por extensión, tal vez, del registro público. ¿Recibieron ayuda las víctimas? ¿Fueron los perpetradores llevados ante la justicia? Con la interminable avalancha de vídeos e imágenes esperando revisión, preguntas como estas casi siempre quedan sin respuesta.

La situación que encontró Johanna resalta lo que David Kaye, profesor de derecho en la Universidad de California en Irvine y ex relator especial de las Naciones Unidas sobre libertad de expresión, cree que es uno de los principales puntos ciegos de las plataformas: “Entran en espacios y países donde tienen muy poca conexión con la cultura, el contexto y la actuación policial”, sin considerar las innumerables formas en que sus productos podrían usarse para dañar a las personas. Cuando las plataformas introducen nuevas funciones como la transmisión en vivo o nuevas herramientas para amplificar el contenido, continuó Kaye, «¿están pensando en cómo hacerlo de una manera que no cause daño?»
La pregunta es buena. Durante años, el director ejecutivo de Meta, Mark Zuckerberg, instó a sus empleados a «moverse rápido y romper cosas», un enfoque que no deja mucho espacio para el tipo de matiz contextual que defiende Kaye. Y la historia ha mostrado las consecuencias en el mundo real de la incapacidad de las empresas de redes sociales para pensar en cómo sus plataformas podrían usarse para fomentar la violencia en países en conflicto.
El ejemplo más mordaz provino de Myanmar en 2017, cuando Meta miró hacia otro lado mientras los líderes militares usaban Facebook para incitar al odio y la violencia contra los musulmanes rohingya mientras llevaban a cabo “operaciones de limpieza” que dejaron aproximadamente 24.000 rohingyas muertos y causaron más de un millones para huir del país. Una misión de investigación de la ONU escribió más tarde que Facebook tuvo un “papel determinante” en el genocidio. Después de encargar una evaluación independiente del impacto de Facebook en Myanmar, la propia Meta reconoció que la empresa no hizo “lo suficiente para ayudar a evitar que nuestra plataforma fuera utilizada para fomentar la división e incitar a la violencia fuera de línea. Estamos de acuerdo en que podemos y debemos hacer más”.
Sin embargo, cinco años después, otro caso ante el tribunal superior de Kenia aborda la misma cuestión en un continente diferente. El año pasado, Meta fue demandada por un grupo de peticionarios, incluida la familia de Meareg Amare Abrha, un profesor de química etíope que fue asesinado en 2021 después de que la gente usara Facebook para orquestar su asesinato. El hijo de Amare intentó desesperadamente que la empresa retirara los mensajes que pedían la cabeza de su padre, pero fue en vano. Ahora forma parte de la demanda que acusa a Meta de amplificar contenido malicioso y de odio durante el conflicto en Tigray, incluidas las publicaciones que pedían el asesinato de Amare.
El caso subraya la extraña distancia entre los gigantes de las grandes tecnologías y la industria de moderación de contenidos que han creado en el extranjero, donde lo que está en juego en las decisiones de moderación puede ser de vida o muerte. Paul Barrett, subdirector del Centro de Empresas y Derechos Humanos de la Escuela de Negocios Stern de la Universidad de Nueva York, autor de un informe fundamental de 2020 sobre el tema, cree que esta distancia ayudó a los líderes corporativos a preservar su imagen de un mundo tecnológico brillante y sin fricciones. Las redes sociales estaban destinadas a ofrecer abundante libertad de expresión, conectarse con amigos y publicar fotografías de la hora feliz, no disturbios callejeros, guerra civil o abuso infantil.
«Esto es algo muy esencial: examinar el contenido y tomar decisiones», me dijo Barrett. “Realmente no quieren tocarlo ni estar cerca de él. Así que mantener todo esto a distancia como una cuestión psicológica o de cultura corporativa también es parte de este panorama”.
Sarah T. Roberts comparó la moderación de contenido con “un pequeño secreto sucio. Ha sido algo que las personas en posiciones de poder dentro de las empresas desearían que desapareciera”, dijo Roberts. Esta renuencia a abordar las confusas realidades del comportamiento humano en línea es evidente hoy, incluso en declaraciones de figuras destacadas de la industria. Por ejemplo, con el lanzamiento en julio de Threads, la nueva plataforma social similar a Twitter de Meta, en julio, el director de Instagram, Adam Mosseri, expresó su deseo de mantener “la política y las noticias duras” fuera de la plataforma.
La decisión de subcontratar la moderación de contenido significó que esta parte de lo que sucedió en las plataformas de redes sociales sería «tratada con distancia y sin ese tipo de supervisión y escrutinio que necesita», dijo Barrett. Pero la decisión tuvo daños colaterales. En busca de una escala masiva, Meta y sus contrapartes crearon un sistema que produce una cantidad imposible de supervisar. Según algunas estimaciones, sólo en Facebook se informan diariamente tres millones de contenidos. Y a pesar de lo que nos dicen algunos de los otros nombres más importantes de Silicon Valley, los sistemas de inteligencia artificial no son moderadores suficientes. Por lo tanto, corresponde a personas reales hacer el trabajo.

Una mañana a finales de julio, James Oyange, un ex trabajador de tecnología, me llevó a un recorrido en automóvil por los centros de moderación de contenido de Nairobi. Oyange, que se hace llamar Mojez, es larguirucho y sociable, y se apresura a chocar los cinco y hacer una broma personalizada. Nos detuvimos frente a un edificio de gran altura en Westlands, un animado barrio central cerca del distrito comercial de Nairobi. Mojez señaló el sexto piso: la oficina local de Majorel, donde trabajó durante nueve meses, hasta que lo despidieron.
Pasó gran parte de su año en este edificio. La paga era mala y las horas de trabajo largas, y no era el trabajo de servicio al cliente que esperaba cuando se inscribió por primera vez; esto es algo que planteó a los gerentes desde el principio. Pero el joven de 26 años empezó a sentir un sentido del deber respecto al trabajo. Vio el trabajo como la versión en línea de un socorrista: un trabajador esencial en la era de las redes sociales, que limpia desechos peligrosos en Internet. Pero ser el primero en llegar a la escena del desastre digital también cambió a Mojez: su apariencia, su forma de dormir e incluso la dirección de su vida.
Esa mañana, mientras tomábamos café en una cafetería moderna y de techos altos en Westlands, le pregunté cómo lo estaba manteniendo. «En comparación con algunos de los otros moderadores con los que hablé, parece que lo estás haciendo bien», comenté. «¿Eres?»

Sus días a menudo comenzaban con los ojos llorosos. Cuando el insomnio se apoderaba de él, se obligaba a salir a correr bajo el cielo negro como boca de lobo, dando vueltas alrededor de su vecindario durante 30 minutos y luego estirándose en su habitación cuando la oscuridad se disipaba. Al amanecer, tomaba el autobús para ir al trabajo, serpenteando por las famosas y congestionadas calles de Nairobi hasta llegar a las oficinas de Majorel. Un mercado de alimentos al final de la calle ofreció algunos momentos de alivio de la rutina diaria. Mojez se escabullía allí para tomar un refrigerio o almorzar. Su vendedor preferido repartía tortillas rellenas de salchicha. A menudo estaba tan agotado al final del día que se quedaba dormido en el autobús de regreso a casa.
Y luego, en abril de 2023, Majorel le dijo que no le renovarían el contrato.
Fue un golpe. Mojez entró a la reunión fantaseando con un ascenso. Se fue sin trabajo. Cree que la dirección de la empresa lo puso en la lista negra por hablar sobre los bajos salarios y las condiciones laborales de los moderadores.
Unas semanas más tarde, un antiguo colega lo puso en contacto con Foxglove, una organización legal sin fines de lucro con sede en el Reino Unido que apoya la demanda que actualmente se encuentra en mediación contra Meta. La organización también ayudó a organizar la reunión de mayo en la que más de 150 moderadores de contenido africanos de todas las plataformas votaron a favor de sindicalizarse.
En el evento, Mojez quedó asombrado por la universalidad de los desafíos que enfrentan los moderadores que trabajan en otros lugares. Se dio cuenta: “Este no es un problema de Mojez. Se trata de 150 personas en todas las empresas de redes sociales. Este es un problema importante que está afectando a mucha gente”. Después de eso, a pesar de estar desempleado, se comprometió plenamente con la campaña sindical. Mojez, que estudió relaciones internacionales en la universidad, espera algún día trabajar en políticas sobre tecnología y protección de datos. Pero ahora mismo su objetivo es llevar adelante el esfuerzo, hasta llegar al registro del sindicato en el departamento de trabajo de Kenia.
El amigo de Mojez en la lucha contra las Big Tech, Wabe, también asistió a la reunión de mayo. Una tarde de julio, durante el almuerzo en Nairobi, describió cómo fue hablar abiertamente sobre sus experiencias públicamente por primera vez. “Estaba feliz”, me dijo. «Me di cuenta de que no estaba solo». Esta conciencia le ha dado más confianza a la hora de luchar “para garantizar que los moderadores de contenidos en África sean tratados como seres humanos, no como basura”, explicó. Luego se subió la pernera del pantalón y señaló una marca en su pantorrilla, una cicatriz de cuando fue encarcelado y torturado en Etiopía. Las empresas, dijo, “piensan que sois débiles. No saben quién eres ni por lo que pasaste”.

Al observar los problemas económicos de Kenia, se puede ver por qué estos trabajos eran tan atractivos. Mi visita a Nairobi coincidió con una serie de protestas en julio que paralizaron la ciudad. El día que llegué, no estaba claro si podría llegar desde el aeropuerto hasta mi hotel: las carreteras, los negocios y el transporte público amenazaban con cerrar en anticipación de los disturbios. Las manifestaciones, que han ido surgiendo de vez en cuando desde marzo pasado, se produjeron en respuesta a nuevos y pronunciados aumentos de impuestos, pero también se referían al estado más amplio de la tambaleante economía de Kenia: los crecientes precios de los alimentos y la gasolina y una crisis de desempleo juvenil, algunos de los cuales las mismas fuerzas que impulsan a multitudes de trabajadores jóvenes a trabajar para empresas de subcontratación y los mantienen allí.
Leah Kimathi, cofundadora del Consejo Keniano para los Medios Sociales Responsables, una organización sin fines de lucro, cree que la defensa legal de Meta en el caso laboral presentado por los moderadores traiciona el enfoque neocolonial de las grandes tecnológicas hacia los negocios en Kenia. Cuando los peticionarios presentaron la demanda por primera vez, Meta intentó absolverse afirmando que no podía ser llevado a juicio en Kenia, ya que no tiene oficinas físicas allí y no empleaba directamente a los moderadores, que en cambio trabajaban para Sama, no para Meta. Pero un tribunal laboral de Kenia lo vio de otra manera y dictaminó en junio que Meta (no Sama) era el principal empleador de los moderadores y que el caso contra la empresa podía seguir adelante.
«Así que pueden venir aquí, lanzar su producto de una manera muy explotadora, ignorando nuestras leyes, y no podemos responsabilizarlos», dijo Kimathi sobre el argumento legal de Meta. “Porque ¿adivinen qué? Estoy por encima de tus leyes. Esa era exactamente la lógica colonial”.
Kimathi continuó: “Para nosotros, que estamos en el Sur Global, pero también en África, estamos viendo esto desde una perspectiva histórica. Los jóvenes africanos enérgicos están siendo objeto de moderación de contenidos y salen mutilados de por vida. Esto recuerda a la esclavitud. Recién ahora nos hemos mudado de las granjas a las oficinas”.
Según lo ve Kimathi, las empresas tecnológicas multinacionales y sus socios de subcontratación cometieron un gran error de cálculo, potencialmente fatal, cuando se instalaron en Kenia: no anticiparon una revuelta de los trabajadores. Si hubieran considerado la historia del país, tal vez habrían visto la escritura de la Unión Africana de Moderadores de Contenido en la pared.
Kenia tiene una rica historia de organización de trabajadores en resistencia al Estado colonial. El movimiento sindical era “un pilar fundamental de la lucha anticolonial”, me explicó Kimathi. Ella y otros críticos de las operaciones de las Big Tech en Kenia ven una línea que va desde la explotación laboral de la era colonial y la organización de los trabajadores hasta el día de hoy. La reacción de los trabajadores fue una parte fundamental de esa resistencia, y una que las plataformas de las grandes tecnologías y sus subcontratistas tal vez hayan pasado por alto cuando decidieron hacer negocios en el país.
«Pensaron que entrarían y establecerían esta industria tan explotadora y que los kenianos no retrocederían», dijo. En cambio, demandaron.

¿Qué pasa si los trabajadores realmente ganan?
Foxglove, la organización sin fines de lucro que apoya el desafío legal de los moderadores contra Meta, escribe que el resultado del caso podría alterar el modelo global de subcontratación de moderación de contenido. Si el tribunal determina que Meta es el “’verdadero empleador’ de sus moderadores de contenido a los ojos de la ley”, argumenta Foxglove, “entonces no pueden esconderse detrás de intermediarios como Sama o Majorel. Será su responsabilidad, por fin, valorar y proteger a los trabajadores que protegen las redes sociales y que han hecho ganar miles de millones a los ejecutivos tecnológicos”.
Pero todavía queda un largo camino por recorrer, para los propios moderadores y para los tipos de cambios que esperan lograr en la industria global de la moderación.
En Kenia, los trabajadores involucrados en la demanda y el sindicato enfrentan desafíos prácticos. Algunos, como Mojez, están desempleados y se están quedando sin dinero. Otros son trabajadores migrantes de otras partes del continente que tal vez no puedan permanecer en Kenia mientras dure la demanda o la lucha sindical.
El Sindicato de Moderadores aún no está registrado en la oficina laboral de Kenia, pero si se oficializa, sus miembros pretenden presionar para lograr mejores condiciones para los moderadores que trabajan en diferentes plataformas en Kenia, incluidos salarios más altos y más apoyo psicológico para el trauma sufrido en el trabajo. Y sus ambiciones se extienden mucho más allá de Kenia. La red espera inspirar acciones similares en los centros de moderación de contenido de otros países. Según Martha Dark, cofundadora y directora de Foxglove, las condiciones laborales de la industria han generado un esfuerzo de organización transfronterizo entre empresas, que ha atraído a empleados de África, Europa y Estados Unidos.
“Hay moderadores de contenido que se están reuniendo desde Polonia, Estados Unidos, Kenia y Alemania para hablar sobre los desafíos que enfrentan al intentar organizarse en el contexto de trabajar para grandes empresas tecnológicas como Facebook y TikTok”, explicó.
Aún así, existen grandes interrogantes que podrían depender de la capacidad del litigio para transformar la industria de la moderación. «Sería bueno si los revisores de contenido subcontratados ganaran mejores salarios y recibieran un mejor trato», me dijo Paul Barrett de la Universidad de Nueva York. «Pero eso no aborda el problema de que las empresas matrices aquí, ya sea Meta o cualquier otra, no contratan a estas personas, no las capacitan directamente y no las supervisan directamente». Incluso si los trabajadores kenianos salen victoriosos en su demanda contra Meta y la empresa resulta perjudicada en los tribunales, “el litigio sigue siendo un litigio”, explicó Barrett. «No se trata de la reestructuración de una industria».
Entonces, ¿qué reformaría verdaderamente el problema central de la industria de la moderación? Para Barrett, la industria sólo verá cambios significativos si las empresas pueden incorporar “más, si no toda, esta función internamente”.
Pero Sarah T. Roberts, que entrevistó a trabajadores desde Silicon Valley hasta Filipinas para su libro sobre la industria de la moderación global, cree que la negociación colectiva es el único camino a seguir para cambiar las condiciones de trabajo. Dedicó el final de su libro a la promesa del trabajo organizado.
“La única esperanza es que los trabajadores respondan”, me dijo. “En algún momento, la gente se deja llevar demasiado lejos. Y la clase propietaria siempre lo subestima. ¿Por qué las Big Tech quieren que todo sea computacional en la moderación de contenidos? Porque las herramientas de IA no hacen huelga. No hablan con los periodistas”.
Desde la biometría hasta la vigilancia: cuando las personas en el poder abusan de la tecnología, el resto de nosotros sufrimos. Escrito por Ellery Biddle.SUSCRIBIR
La inteligencia artificial es parte de la industria de la moderación de contenidos, pero probablemente nunca será capaz de reemplazar por completo a los moderadores humanos. Lo que sí sabemos es que los modelos de IA seguirán dependiendo de los seres humanos para entrenar y supervisar sus conjuntos de datos, una realidad que reconoció recientemente el director ejecutivo de Sama . Por ahora y en el futuro previsible, todavía habrá personas detrás de la pantalla, alimentando los motores de las plataformas tecnológicas más grandes del mundo. Pero gracias a personas como Wabe, Mojez y Kauna, su trabajo se está volviendo más visible para el resto de nosotros.
Mientras escribía este artículo, seguí volviendo a una escena de mi viaje a Nairobi que me hizo comprender poderosamente la cruda humanidad en la base de toda esta industria, impulsando todo el sistema, por mucho que a los vástagos de la tecnología les gustaría fingir lo contrario. Estaba en el patio de comidas de un centro comercial, sentado con Malgwi y Wabe. Ambos iban vestidos elegantemente, como si estuvieran de descanso en la oficina: Malgwi con un elegante vestido rosa y una chaqueta, Wabe con botas de cuero y un chaquetón. Pero en cambio, simplemente hablaban de cómo el trabajo los arruinó.
En un momento de la conversación, Wabe me dijo que estaba dispuesto a mostrarme algunos ejemplos de videos violentos que sacó mientras trabajaba para Sama y luego compartió con su abogado. Si quería entender «exactamente lo que vemos y moderamos en la plataforma», explicó Wabe, la oportunidad estaba justo frente a mí. Todo lo que tenía que hacer era decir que sí.
Yo dudé. Tenía verdadera curiosidad. Una parte de mí quería saber, quería ver de primera mano con qué tuvo que lidiar durante más de un año. Pero soy sensible, tal vez un poco frágil. Un insomne de toda la vida. ¿Podría soportar ver estas cosas? ¿Volvería a dormir algún día?
Fue una decisión que no tuve que tomar. Malgwi intervino. “No se lo envíes”, le dijo a Wabe. “La traumatizará”.
Me di cuenta de que gran parte de esta historia se redujo a este intercambio de un minuto. No quería ver los videos porque tenía miedo de cómo me pudieran afectar. Malgwi se aseguró de que yo no tuviera que hacerlo. Ella ya sabía lo que había al otro lado de la pantalla.

Erica Hellerstein es reportera senior de Coda Story.
Gaceta Crítica, 23 de Octubre de 2023
Deja un comentario