menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

“Estuve un año en la cola de suicidio, con vídeos en directo”

20 0
06.04.2026

Un jurado de Nuevo México ha condenado a Meta a pagar 375 millones de dólares por perjudicar deliberadamente la salud mental de los niños, además de ocultar información sobre contenidos relativos a explotación sexual infantil presentes en sus plataformas. Otro, de Los Ángeles, obliga a la propia Meta y a YouTube a indemnizar con tres millones de dólares a una usuaria, declarada víctima directa del diseño de estas plataformas de contenido. El veredicto señala características como el scroll infinito o los algoritmos de recomendación como intrínsecamente dañinas para la salud mental, y ambas empresas podrían enfrentarse a otras sanciones por su diseño doloso o fraudulento.

La publicación de estas dos informaciones se ha dado con apenas unas horas de diferencia, lo que demuestra hasta qué punto nos encontramos en un momento de enorme conflictividad entre las grandes tecnológicas y gobiernos u otras instituciones preocupadas por el impacto que tiene el funcionamiento de las redes sociales comerciales en la ciudadanía. Sin embargo, esos daños psicológicos graves llevan años siendo denunciados precisamente por quienes se dedican a poner sus cuerpos para mantener estos espacios digitales limpios de mensajes e imágenes desagradables, ilegales o directamente inconcebibles por su brutalidad. Se trata de los y las moderadoras de contenido. Su labor es, en resumidas cuentas, valorar si un vídeo de TikTok, una fotografía de Instagram, un tuit, etc. debe ser eliminado por infringir las normas de la plataforma en cuestión –en el mejor de los casos– o puede seguir ahí presente.

La forma en la que los medios de comunicación, la política y la sociedad en general han mirado hacia otro lado en las numerosas ocasiones en las que los y las moderadoras han tratado de visibilizar su sufrimiento, y denunciar a los responsables, no es más que el reflejo de una labor esforzadamente soterrada en la más absoluta opacidad por quienes se benefician de ella.

El papel de este colectivo expone la materialidad de Internet

El papel de este colectivo expone la materialidad de Internet

“Los moderadores son vistos por las empresas y por sus compañeros (de tiempo completo) como los ‘impuros’ que deben ser excluidos”, escribe el investigador Ronald Durán Allimant en su artículo Trabajo digital y “sonambulismo tecnológico”: el caso de la moderación de contenido en Internet. Ese repudio tiene una motivación muy sencilla de entender: el papel de este colectivo expone la materialidad de Internet, un elemento que las megacompañías tratan de ocultar en pos de la sensación etérea que rodea todo lo que tiene que ver con lo digital, y que tanta satisfacción aporta a quienes pasan horas y horas recibiendo dopamina en las plataformas de contenido. La realidad no podría estar más alejada de ese ideal. Tanto los algoritmos de recomendación como la Inteligencia Artificial son herramientas con un sustento material imprescindible para su funcionamiento. Por un lado están las infraestructuras –cables, naves industriales, etc.–, cuyo impacto en términos ecológicos está cada vez más en el debate público y político; por el otro, los peones humanos, cuyas secuelas son difícilmente imaginables.

“Llegó un momento en que era incapaz de abrir la puerta de casa, aunque estuviese ya vestida para salir a la calle. (...) Lloraba por todo, me sentía nerviosa, dejé de escuchar música, dejé de comunicarme con la gente, comencé a aislarme muchísimo. (...) También tuve muchas arritmias. (...) Desarrollé miedo a dormir, ya no por cosas que una normalmente sueña, sino directamente por contenidos con los que trabajé. Llegué a tener ataques de ansiedad en la calle y desarrollé bastante agorafobia”, cuenta Ileana, exmoderadora de contenidos para Meta a través de la subcontrata Telus durante más de cinco años y medio. “Me he convertido en una persona........

© CTXT