menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Regular las ‘big tech’, un imperativo democrático

17 0
09.03.2026

Tienes 13 años y llevas un tiempo sintiéndote triste todos los días, desde que te levantas hasta que te acuestas. Tienes, también, un móvil entre las manos y una cuenta en la aplicación TikTok, cuyo abastecimiento infinito de vídeos cortos te absorbe. En algunos de ellos escuchas la palabra “depresión” y sientes una especie de pellizco emocional, un sobresalto mezcla de miedo, curiosidad y, quizá, identificación; así que te quedas a ver esos vídeos hasta el final. Desde el momento en que TikTok cataloga tu perfil como interesado en cuestiones de salud mental, solo hacen falta cinco o seis horas de uso para que prácticamente uno de cada dos vídeos que te lanza la plataforma tenga un contenido potencialmente nocivo en términos de bienestar psicológico.

Tienes 13 años y llevas unos días sin poder sacarte de la cabeza la depresión. Es posible que no tengas muy claro de qué se trata, pero sí conoces las melodías tristes y los tonos oscuros con los que la representan en tu entorno online, también los gestos abatidos de quienes te sirven como únicos referentes de lo que es estar deprimido –ya sean rostros humanos, dibujos o figuras generadas por Inteligencia Artificial–, así que buscas de forma manual algunos de los vídeos que TikTok te ha recomendado últimamente. Pasados entre tres y 20 minutos, más de la mitad de los contenidos que van surgiendo en tu móvil hablan sobre problemas de salud mental, con frecuencia normalizando, idealizando y/o animando al suicidio.

Una investigación de Amnistía Internacional, junto con Algorithmic Transparency Institute y AI Forensics, demostró que esta situación podría estar dándose en este mismo momento en muchos hogares. Los datos no son hipotéticos, sino los resultados expuestos en el informe Empujados a la oscuridad: El feed “Para ti” de TikTok fomenta la autolesión y la ideación suicida, que denuncia cómo los algoritmos de recomendación de esta red social pueden estar destrozando la salud mental de muchísimas personas menores de edad en aras de aumentar la interacción, el tiempo de uso y demás criterios puramente empresariales.

Por su parte, el DCU Institute for Future Media, Democracy and Society creó diez cuentas en diez smartphones limpios de actividad previa, cinco en YouTube y cinco en TikTok. Se construyeron con ellas dos tipos de perfil: chico interesado en contenido genérico relacionado estereotípicamente con lo masculino –gimnasio, deportes, videojuegos, etc.– y chico que busca activamente contenido referente a la manosfera, en ambos casos con dos variantes de edad, 16 y 18 años, además de dos cuentas control –una para cada red– que no buscaron contenido de ningún tipo en particular. Tanto los perfiles de la masculinidad genérica como aquellos interesados en la manosfera recibieron contenido catalogado como “tóxico” –categoría que engloba contenidos relacionados con la cultura “macho alfa”, la misoginia, el reaccionarismo o la conspiranoia– antes de cumplirse 23 minutos de uso, y contenido directamente antifeminista o misógino antes de cumplirse 26 minutos de uso tanto en YouTube Shorts como en TikTok.

Un marco normativo para proteger a la ciudadanía europea

Desde el 17 de febrero de 2024, los países de la Unión Europea cuentan con un marco regulatorio que permite perseguir este tipo de prácticas tan dañinas por parte de grandes plataformas digitales como TikTok o YouTube. Es la Ley de Servicios Digitales –DSA, por sus siglas en inglés–, un reglamento de aplicación directa que, desde su entrada en vigor hace ya más de tres años, ha quedado establecido en todos los países de la Unión como una suerte de suelo normativo sobre el que empezar a reconstruir el panorama del espacio........

© CTXT