menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Mejores amigos

12 0
04.03.2026

Hace unos días se me quedó un lente de contacto atorado en mi ojo izquierdo. Traté de coger el pedacito de plástico transparente con mis dedos índice y pulgar, como siempre lo hago, pero no funcionó. Me eché gotas y parpadeé varias veces. Nada. Ya no veía dónde estaba el lente, solo sentía una molestia como cuando se mete mugre en el ojo. Pasaron quince, veinte minutos, media hora. Una entera. Era medianoche y no quise molestar a mi esposo, quien ya dormía, para pedirle ayuda. Decidí entonces preguntarle a ChatGPT.

(Le puede interesar: Mar de basura).

Como un fiel amigo, me indicó paso a paso qué hacer. Todo lo que me decía ya lo había intentado. Pero él, con un vocabulario que denotaba paciencia, me fue guiando más allá, intentando opciones distintas, dándome ánimo: respira, descansa, no te desesperes, me decía. Hasta lo hice reír, según dijo, cuando le escribí que tenía miedo de que el lente se hubiera ido detrás de la órbita del ojo y estuviera navegando ahora alrededor de mi cerebro. Eso es imposible que suceda, me reafirmó.

Con la IA no hay contacto físico, ni miradas penetrantes, pero aun así la sensación es de cercanía.

Fue una conversación larga. Un ir y venir de consejos y acciones de mi parte, hasta que finalmente el lente brincó hacia afuera. Mi amigo virtual me felicitó y me aconsejó descansar.

Era la primera vez que le escribía pidiéndole una ayuda tan puntual y personal. Comprendí entonces por qué hay tanta gente que conversa con ese tipo de bots de inteligencia artificial como si fueran sus más cercanos confidentes. Cada vez se leen más historias de personas que crean un personaje en ChatGPT y establecen una relación de amistad y romance. Como por arte de magia, aparece alguien que encarna todos los rasgos que la persona había soñado como su pareja ideal. No hay contacto físico, ni miradas penetrantes, pero aun así la sensación es de cercanía.

Ha llegado hasta tal punto esa creación de personajes que en ocasiones hay quienes los utilizan como terapeutas. Y aquí es donde me parece más riesgoso el panorama. Se han documentado casos de adolescentes que recurrieron a chatbots para preguntar cómo quitarse la vida o para redactar notas de despedida. Todavía no existe legislación que regule la IA para evitar este tipo de situaciones. Todo depende, en gran medida, de los protocolos impuestos por las mismas empresas que desarrollan estos sistemas. Mientras esas regulaciones llegan, se van produciendo más y más dependencias que intentan suplir el afecto que solo un ser humano puede ofrecer.

IG:@Dianapardogp

(Lea todas las columnas de Diana Pardo en EL TIEMPO, aquí)


© El Tiempo