“Estuve un año en la cola de suicidio, con vídeos en directo”
Un jurado de Nuevo México ha condenado a Meta a pagar 375 millones de dólares por perjudicar deliberadamente la salud mental de los niños, además de ocultar información sobre contenidos relativos a explotación sexual infantil presentes en sus plataformas. Otro, de Los Ángeles, obliga a la propia Meta y a YouTube a indemnizar con tres millones de dólares a una usuaria, declarada víctima directa del diseño de estas plataformas de contenido. El veredicto señala características como el scroll infinito o los algoritmos de recomendación como intrínsecamente dañinas para la salud mental, y ambas empresas podrían enfrentarse a otras sanciones por su diseño doloso o fraudulento.
La publicación de estas dos informaciones se ha dado con apenas unas horas de diferencia, lo que demuestra hasta qué punto nos encontramos en un momento de enorme conflictividad entre las grandes tecnológicas y gobiernos u otras instituciones preocupadas por el impacto que tiene el funcionamiento de las redes sociales comerciales en la ciudadanía. Sin embargo, esos daños psicológicos graves llevan años siendo denunciados precisamente por quienes se dedican a poner sus cuerpos para mantener estos espacios digitales limpios de mensajes e imágenes desagradables, ilegales o directamente inconcebibles por su brutalidad. Se trata de los y las moderadoras de contenido. Su labor es, en resumidas cuentas, valorar si un vídeo de TikTok, una fotografía de Instagram, un tuit, etc. debe ser eliminado por infringir las normas de la plataforma en cuestión –en el mejor de los casos– o puede seguir ahí presente.
La forma en la que los medios de comunicación, la política y la sociedad en general han mirado hacia otro lado en las numerosas ocasiones en las que los y las moderadoras han tratado de visibilizar su sufrimiento, y denunciar a los responsables, no es más que el reflejo de una labor esforzadamente soterrada en la más absoluta opacidad por quienes se benefician de ella.
El papel de este colectivo expone la materialidad de Internet
El papel de este colectivo expone la materialidad de Internet
“Los moderadores son vistos por las empresas y por sus compañeros (de tiempo completo) como los ‘impuros’ que deben ser excluidos”, escribe el investigador Ronald Durán Allimant en su artículo Trabajo digital y “sonambulismo tecnológico”: el caso de la moderación de contenido en Internet. Ese repudio tiene una motivación muy sencilla de entender: el papel de este colectivo expone la materialidad de Internet, un elemento que las megacompañías tratan de ocultar en pos de la sensación etérea que rodea todo lo que tiene que ver con lo digital, y que tanta satisfacción aporta a quienes pasan horas y horas recibiendo dopamina en las plataformas de contenido. La realidad no podría estar más alejada de ese ideal. Tanto los algoritmos de recomendación como la Inteligencia Artificial son herramientas con un sustento material imprescindible para su funcionamiento. Por un lado están las infraestructuras –cables, naves industriales, etc.–, cuyo impacto en términos ecológicos está cada vez más en el debate público y político; por el otro, los peones humanos, cuyas secuelas son difícilmente imaginables.
“Llegó un momento en que era incapaz de abrir la puerta de casa, aunque estuviese ya vestida para salir a la calle. (...) Lloraba por todo, me sentía nerviosa, dejé de escuchar música, dejé de comunicarme con la gente, comencé a aislarme muchísimo. (...) También tuve muchas arritmias. (...) Desarrollé miedo a dormir, ya no por cosas que una normalmente sueña, sino directamente por contenidos con los que trabajé. Llegué a tener ataques de ansiedad en la calle y desarrollé bastante agorafobia”, cuenta Ileana, exmoderadora de contenidos para Meta a través de la subcontrata Telus durante más de cinco años y medio. “Me he convertido en una persona que necesita según qué medicación para relajarme, para estar tranquila. No puedo estar sentada leyendo un libro como antes”, relata por su parte Laura –nombre ficticio–, que también trabajó para Telus durante seis años y medio.
Ambas forman parte de las casi 700 personas que, tras pasar por el centro de moderación para Meta en la Torre Glòries de Barcelona, han decidido demandar a la compañía fundada y encabezada por Mark Zuckerberg. “Empezamos con una primera denuncia de una moderadora, y se fue expandiendo”, cuenta Robert Castro, abogado laboralista de Bastet Advocats, despacho que lleva la defensa de estas personas. “Hay un elemento clave que es el ERE que se produce entre abril y mayo de 2025. A partir de ahí, cuando te van a despedir, la sensación ya es ‘de perdidos al río’ e impulsamos una demanda porque consideramos que se han vulnerado derechos fundamentales; pedimos la reparación no solo de los daños morales, sino también de los psicológicos”. En paralelo a este proceso, hay otro dirigido contra TikTok por las condiciones salariales de los y las moderadoras; “actualmente hay entre 50 y 100 personas”, comenta el abogado, que asegura que, en lo respectivo al contenido, en esta plataforma están “igual o peor”: “Ven mucho horror y tienen un sistema de protección a la salud mental paupérrimo”.
Castro es tajante en cuanto al impacto en la salud mental de los y las trabajadoras: “La primera persona se presenta con un cuadro de daños psicológicos serios, y cuando se va ampliando vemos que todos y todas están igual; han pagado un precio muy, muy alto por la dejadez de las grandes plataformas”. Y concreta: “Tienen una calidad del sueño pésima, un insomnio enorme, pensamientos intrusivos, o sea, toda una sintomatología terrible”.
La problemática no es reciente. Ya en 2020, Facebook –ahora Meta– llegó a un acuerdo extrajudicial con un grupo de moderadores y moderadoras que habían denunciado a la compañía por trastornos psicológicos derivados directamente de su trabajo. Las quejas se remontaban, al menos, al año 2017, y algunas de las personas damnificadas presentaban estados de estrés postraumático. La empresa de Zuckerberg acordó desembolsar 52 millones de dólares en indemnizaciones, aceptando tácitamente su culpabilidad.
Diversas investigaciones secundan la tesis del daño psicológico grave, e incluso lo elevan más allá de trastornos concretos como la ansiedad o la depresión. En palabras de la psicóloga Jennifer Prieto Estévez, “la exposición repetida a contenido traumático alteró significativamente la percepción del mundo y aspectos de la vida cotidiana de los MCC [moderadores de contenido comercial]”. Laura lo encarna en su propia cotidianidad: “Yo tengo un sistema de vida muy diferente al que tenía antes [de pasar por la moderación de contenido]. Me agobian situaciones como que alguien se acerque demasiado a la vía del metro, por si va a hacer una barbaridad o a lo mejor me va a tirar a mí. Son escenas que vas repitiendo en tu cabeza automáticamente en el día a día, estás como en una alerta constante”.
Se espera que revisen hasta 25.000 imágenes al día
Se espera que revisen hasta 25.000 imágenes al día
La investigación de Prieto Estévez, publicada en la Revista Oficial de la Sección de Psicología y Salud del COPG, explica que estas personas no solo se enfrentan a escenas brutales, sino que lo hacen presionadas por cargas de trabajo agotadoras: “Se espera que revisen hasta 25.000 imágenes al día y entre 700 y 800 vídeos diarios, manteniendo una precisión del 95 %, con solo tres errores permitidos por mes”. Un nivel de perfección a la hora de analizar contenidos extremadamente delicados para el que disponen de apenas unos segundos por cada decisión.
A todo ello se suma la ausencia escandalosa de medidas de protección de la salud mental. Lo cuenta Robert Castro, con la indignación de quien ha oído el mismo relato repetido demasiadas veces: “Son unas secuelas graves para las que Meta presenta una desatención total. Tú estás jodidísimo porque acabas de ver cómo han decapitado a un bebé, pides ayuda y te envían a un psicólogo que te dice ‘Cómete un kiwi’ o ‘Vamos a pintar un mandala’. Es de locos, de no creer”.
La experiencia de Laura coincide con esta descripción del abogado: “Nos daban sesiones de wellbeing [bienestar] para intentar suavizar todo lo que estábamos viendo. Pero claro, eso con cursitos de mandalas o cursitos de defensa personal o cursitos de meditación… bueno, si tú has visto algo muy fuerte, te lo quedas. O sea, no hay nada que quite eso”. En conversación con CTXT, esta víctima de los abusos de Meta comparte algunas de las experiencias a las que se vio sometida: “Yo estuve un año en la cola de suicidio, que eran vídeos en directo, y a mí no me preguntaron si yo podía estar en esa cola, si estaba bien o no estaba bien. Si no quieres, ya sabes dónde está la puerta. (...) En la cola de suicidios a mí se me ponía el cuerpo mal, la sangre te empieza a correr muy rápido. Te sientes como cuando tienes ganas de vomitar o algo así. Sientes una cosa muy rara en tu cuerpo, porque sabes lo que va a pasar y no sabes si lo vas a poder prevenir”. En esos casos, la tarea no es solo decidir si la retransmisión debe censurarse, también recae sobre la moderadora la responsabilidad de dar aviso a las autoridades para que traten de evitar que una persona se quite la vida. Ileana también tuvo que enfrentarse a ese tipo de contenidos: “Ciertamente podíamos ver uno de esos vídeos de perritos haciendo cosas divinas y acto seguido tenía la vida de una persona a un clic de mi mano”, explica. En semejante situación, contar con un protocolo de bienestar psicológico como el previamente descrito es “como mandar a un soldado a pelear con una navaja y un rifle de la Primera Guerra Mundial contra bombas nucleares”, resuelve Ileana.
Subcontratación, desregulación e impunidad
La dinámica de externalización de las labores de moderación a través de subcontratas es el modo en que “funcionan sistemáticamente” tanto Meta como TikTok, según Robert Castro. Ocultar el altísimo coste de sus negligencias es prioritario desde que en Silicon Valley, donde estaban los primeros centros de moderación, empezaron a ser conscientes de lo que suponía enfrentarse a esas imágenes a diario: “Se llegó al punto extremo de que en los baños de las oficinas de moderadores de Silicon Valley hacían pintadas en la pared con excrementos, algo que solo se ve en centros psiquiátricos”, desvela Castro. Y sigue: “En EEUU estos centros cierran en 2018, que es justo el año en que abren el de Torre Glòries en Barcelona (...) Y este centro acabó igual, literalmente con esa imagen de gente haciendo pintadas con excrementos en la pared de los baños”.
En los baños de las oficinas de moderadores de Silicon Valley hacían pintadas con excrementos
En los baños de las oficinas de moderadores de Silicon Valley hacían pintadas con excrementos
Para Ileana no hay duda de la intencionalidad de las big tech a la hora de operar así: “Todas estas empresas ya saben que, a partir del segundo año trabajando como moderador de contenido, el cuerpo va a empezar a fallar. Ahí vienen los dolores de cabeza, las migrañas, el insomnio, los malestares estomacales, las arritmias, etcétera. Y acto seguido va a venir una riada de bajas por ansiedad, por estrés y por depresión, incluso suicidios. La empresa ya tiene un discurso para decir ‘pero nosotros no fuimos los culpables, él o ella ya tenía problemas psicológicos’. Y tan sencillo como que bajan persianas en un sitio y las abren en otro”. El hecho de subcontratar las labores de moderación es clave para poder disfrutar de tal impunidad.
Sobre los motivos que les hicieron aguantar tantos años en un empleo que estaba destrozando su salud, ambos testimonios coinciden con una exactitud llamativa. “Pagar las facturas” son tres palabras que repiten, idénticas, tanto Laura como Ileana, y que aluden a una precariedad estructural que cercena la capacidad de rechazar un trabajo, por dañino que este sea. Además, estas empresas se aprovechan de aquellas personas en situaciones más especialmente vulnerables. Según Robert Castro, tan solo ocho de las casi 700 personas que componen el macroprocedimiento contra Meta han nacido en el Estado español.
En realidad, para gigantes como Meta o TikTok las personas que componen estas plantillas de moderación son poco más que subhumanos. “El trabajo de los moderadores se reduce al solo clic físico que ordena eliminar o aceptar los contenidos revisados”, sostiene el investigador Ronald Durán Allimant. Así, los criterios morales son suprimidos en las jornadas formativas para hacer de estas personas meros autómatas al servicio de la ideología de los dueños de la empresa. Lo cuenta bien un reportaje publicado en elDiario.es en 2019. “El fascismo está permitido por Facebook”, decía uno de los trabajadores, que aseguró también la existencia de presiones para blanquear la violencia sionista en Palestina.
Laura e Ileana corroboran la presencia de sesgos tan descarados. La primera recuerda que, “el día después de la victoria de Trump” en 2025, “hubo un cambio de políticas y un training de más de dos horas cambiándolo todo, cosa que no había sucedido nunca”. Para Ileana también fue muy notorio que en los últimos años “ya podías volver a insultar a las mujeres, a los negros, a los gays…”, y lo mismo con el genocidio en Palestina: “Si estabas a favor del pueblo palestino, a favor de la vida humana en Gaza, y ponías una banderita, seguramente te pudo haber llegado una advertencia de que estabas haciendo proselitismo de Hamás”.
La revelación de estas prácticas abusivas pondría en jaque la reputación de los gigantes tecnológicos, así que se esfuerzan denodadamente en mantenerlo todo bajo un forzado silencio. “No podíamos hablar de para quién trabajábamos, no podíamos utilizar ningún dispositivo electrónico, nada de smartwatch, teléfonos… eso se quedaba en una taquilla. Tampoco podíamos tener papeles o bolis”, explica Ileana. “Teníamos entrenamiento para no hablar con periodistas, para guardar el secreto”, prosigue, antes de señalar: “Pero el Gobierno sí tenía la capacidad de ir a hacer una inspección de trabajo y ver las condiciones laborales”.
El Gobierno sí tenía la capacidad de ir a hacer una inspección de trabajo
El Gobierno sí tenía la capacidad de ir a hacer una inspección de trabajo
La inacción gubernamental ha permitido a estas multinacionales seguir multiplicando sus beneficios a costa de convertir la vida de miles de personas en un infierno. La buena noticia es que todo apunta a que eso va a terminar pronto. El año pasado se puso en marcha la primera alianza internacional de moderadores y moderadoras de contenido. El acto fundacional tuvo lugar en Kenia, país que acoge también una demanda colectiva contra Meta de la que habla Robert Castro: “Tenemos contacto con los abogados de Kenia y con algún líder sindical de allí. Es maravilloso poder estar coordinados”. El abogado es optimista con respecto al futuro inmediato: “Estamos haciendo historia, aunque suene pretencioso. A toda esta monstruosidad había que pararle los pies, y creo que se está haciendo”.
Por su parte, Ileana reconoce que su objetivo no es tanto la compensación económica, sino “que los gobiernos tomen conciencia, porque lo que parece ser un avance tecnológico tiene un costo muy alto en la salud del consumidor y en la de los y las trabajadoras que estamos detrás”.
