Acabo de cruzarme con una violación en Twitter mientras preparaba esta columna. El usuario @edonor20 ha conseguido más 45.900 visualizaciones desde que el 4 de agosto publicara un vídeo de una escena, presumiblemente simulada, pero rebosante de realismo, en la que un individuo tapa la boca a una joven aterrorizada a la que ha conseguido inmovilizar contra el suelo para abusar sexualmente de ella. La secuencia es violenta, pero supongo que del gusto de Elon Musk y de su concepto absolutista de la libertad de expresión. El nuevo patrón de lo que conocimos un día como Twitter y hoy llaman X pensó, al llegar puesto de mando, que sería buena cosa para el negocio levantar las restricciones sobre la difusión de material pornográfico de distintas intensidades y variaciones. Y en esas estamos: el algoritmo Musk lo mismo te recomienda el vídeo de la renuncia de Espinosa de los Monteros, el de una carabela portuguesa flotando en las playas de Donosti o el resumen de una sesión grupal de sexo protagonizada por una feliz pandilla de copulantes asiáticos.
Mientras Musk juega con el globo de la regulación hasta que le estalle en las manos, el resto de grandes plataformas, como TikTok o Meta, tratan de gestionar como pueden el aluvión de contenidos violentos, también de índole sexual, que cada día alguien trata de subir a una red social. La nueva realidad de la comunicación ha hecho emerger el que posiblemente sea uno de los oficios más ingratos pero más necesarios del mundo. Los moderadores de contenidos actúan de muro de contención para impedir que lleguen a nuestros móviles vídeos y fotografías que documentan todas las expresiones de la violencia más descarnada y cruel de la que es capaz el ser humano: asesinatos, violaciones, decapitaciones, abusos a bebés, actos de tortura sobre los animales o canibalismo, entre otras. Imaginen que pasan ocho horas delante de un ordenador consultando publicaciones con escenas atroces sobre las que tienen que decidir, en cuestión de segundos, si deben ser eliminadas o no, en función de los criterios que le ha marcado la dirección de la compañía. Trabajar como administrador del antídoto contra la viralización, como gendarme de unos contenidos que, si fueran difundidos, desmoronarían el negocio de las redes sociales en cuestión de semanas.
Decenas de investigaciones periodísticas han denunciado en los últimos años el colapso mental y emocional que ha provocado en miles de moderadores la exposición continuada a un material ultraviolento, así como la opacidad con la que las empresas tecnológicas gestionan esta parte tan poco vistosa del negocio. El trabajo de moderación es, con frecuencia, encomendado a empresas de terceros que organizan los servicios desde países africanos, asiáticos o latinoamericanos, donde la asistencia psicológica a los trabajadores es insuficiente, o sencillamente no existe, y las condiciones laborales son, a menudo, bochornosas. El pasado mes de octubre, la revista Time reveló que los moderadores de contenidos de TikTok, subcontratados desde Colombia a través de una empresa francesa, recibían 254 dólares al mes por una jornada de 10 horas durante seis días a la semana. Por el mismo cometido, un empleado contratado directamente por TikTok en Estados Unidos ganaba 2.900 dólares mensuales. Tras la publicación del reportaje, la empresa investigada cerró su servicio en Colombia. Otro trabajo de Time sirvió para conocer la retribución de ChatGPT, vía una empresa subsidiaria, a los empleados kenianos que etiquetaban para la inteligencia artificial material violento, sexista o racistas: dos dólares a la hora.
Afortunadamente, algo se mueve en África. Los controladores de contenidos han constituido un sindicato propio e impulsado demandas para conseguir que los tribunales los reconozcan como trabajadores de las plataformas tecnológicas a pesar de ser contratados por empresas de terceros. Poco a poco parece disiparse un silencio tan pesado como injusto.
Fuente: El País