menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

¡Gotcha!

2 0
previous day

Cuando irrumpió ChatGPT, periodistas de todo el mundo escribimos la misma nota: una introducción sencilla, el cuestionamiento de si era posible, de verdad, generar un texto indistinguible del humano y, finalmente, la revelación de que todo lo anterior había sido redactado por una IA. Eran tiempos felices.

Cuatro años después, ya nadie pone en duda que la IA pueda producir textos verosímiles, y de hecho casi a diario se conocen casos como el del abogado al que, a mediados de febrero, la Corte Suprema sancionó con una multa cercana a los 30 millones de pesos por presentar un recurso con base en un conjunto de sentencias que no existen. La conducta del jurista, que reconoció haber usado IA para generar un texto que luego no revisó, fue descrita por el tribunal como “temeridad procesal”.

No, el dilema actual es el opuesto. Si aceptamos que la IA puede engañarnos, la pregunta es si poseemos la tecnología para detectarla con certeza. La experiencia sugiere que no.

Como editor, me precio de identificar las “huellas” de la IA: el abuso de gerundios, estructuras formulaicas (el manido “no es esto, es aquello”) y el uso obsesivo de términos como “fricción” o “punto de inflexión”. Pero nada de eso constituye una prueba irrefutable. No lanzaría una acusación basada solo en eso; mucho menos podría sostenerla ante un juez.

Esta semana circuló en redes el experimento de un autor que sometió el inicio de Cien años de soledad a un detector de IA. Por alguna razón, el pelotón de fusilamiento y el coronel Aureliano Buendía resultaron sospechosos para el sistema, que sentenció que el 84 por ciento de uno de los arranques más brillantes de la literatura en español era generado por una máquina. Es una osada afirmación, sin duda, y más si se recuerda que el libro fue publicado en 1967.

La necesidad de identificar el texto sintético es real, pero en el afán de satanizar la herramienta, perdemos de vista que lo cuestionable no es el uso de la tecnología per se, sino la delegación del criterio propio del ser humano. El pecado del abogado no fue usar ChatGPT, sino radicar un documento sin leerlo. El problema no es que un estudiante use IA, sino que eluda al hacerlo el proceso cognitivo del aprendizaje.

Recientemente, El Espectador descubrió que uno de sus periodistas inventó datos y fuentes usando IA. El diario borró los artículos, pidió disculpas y reafirmó su compromiso con la ética. Es un ejemplo perfecto porque el problema no es en sí mismo el uso de IA, sino su uso para traicionar la confianza del medio y del público.

El futuro de la verificación no reside en analizar patrones de escritura, o en perseguir el momento gotcha! de una película de detectives. Se necesita, como en la escritura misma, una mirada humana que priorice la equidad, reduzca el sesgo y aumente la transparencia, con herramientas que aporten no solo por su precisión, sino también por su capacidad para evitar sancionar injustamente a las personas.


© Vanguardia