menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

A partir de diciembre, ChatGPT podrá desvestirse: ¿quién llevará a la cama a quién?

4 1
17.11.2025

En diciembre próximo, ChatGPT permitirá contenido erótico para usuarios que verifiquen su edad. Sam Altman, director ejecutivo de OpenAI, lo anunció el mes pasado en X con una frase pulida: «Ha llegado la hora de tratar a los usuarios adultos como adultos». Y con la promesa de que esa libertad llega después de reforzar las salvaguardas de salud mental e implementar un sistema de verificación de edad más estricto.

No es un salto al vacío. Otras empresas ya habían metido el pie en esa piscina: xAI, de Elon Musk, con Grok, lleva tiempo coqueteando con chatbots de estética del anime y tono subidito, y el ecosistema de compañeros virtuales eróticos crece desde hace años en la periferia de las grandes plataformas. OpenAI no baja de un pedestal moral: más bien reconoce que el mercado llevaba rato en otra parte… y que había dinero encima de la mesa.

El relato oficial es impecable: primero fuimos muy restrictivos «por la salud mental» de las personas, y ahora que (supuestamente) hemos mitigado los riesgos, podemos relajar el corsé sin poner en peligro a los vulnerables. En paralelo, la empresa anuncia verificación de edad, versiones filtradas para menores y herramientas para detectar señales de angustia grave, después de admitir que cientos de miles de interacciones semanales muestran signos de crisis psicótica, episodios maníacos o pensamientos suicidas. Por debajo, la partitura es conocida: capas de aviso legal, protocolos internos, evaluaciones de impacto y descargos de responsabilidad redactados al milímetro para poder decir, cuando llegue el primer caso grave, que se hizo «todo lo razonable». La frase no va dirigida al usuario, sino a reguladores, jueces, prensa, padres y aseguradoras: el erotismo lo pone la empresa, pero el riesgo residual se procura aparcar, desde el primer día, en el lado del consumidor y de su entorno.

Aquí es donde uno levanta la ceja.

Si de verdad te preocupa la salud mental de tus usuarios, más que pedirles un documento de identidad para poder decir «culo» en lugar de «trasero» en una app, tendrías que plantearte filtros clínicos básicos, tests de personalidad o, como mínimo, algún tipo de cribado psicológico en forma de certificado médico. Y aun así seguiría pareciéndome una estupidez supina: el problema no es la palabra «culo», es el uso que hacemos de la máquina cuando estamos solos, frágiles y despiertos a las tres de la madrugada.

Mientras tanto, la realidad ahí fuera no se parece a un campus sueco con estudiantes tomando matcha y citando a Rawls. Vivimos en un mundo donde un delincuente convicto puede ocupar la presidencia de un país, los fondos de capital riesgo financian cualquier cosa que prometa usuarios activos diarios y retención, y el noventa por ciento de las........

© Canarias Ahora