Democracia en la era de la Inteligencia Artificial
En enero de 2024, miles de votantes en EU recibieron una llamada automática con una voz que parecía ser la del presidente Joe Biden. En el mensaje se les pedía no acudir a votar en las primarias. El audio era convincente, realista e inquietante. Pero era falso.
La voz había sido generada mediante Inteligencia Artificial (IA): un deepfake de audio.
Con la IA no sólo se puede distorsionar la información: se fabrica una realidad completa.
Diversos estudios han demostrado que la desinformación puede viajar hasta seis veces más rápido que la información verificada. En un ecosistema digital gobernado por algoritmos, la verdad muchas veces compite en desventaja frente a contenidos diseñados para provocar emociones, indignación o polarización.
En 2023, desde la Alianza Nacional de Inteligencia Artificial (ANIA) impulsamos foros en el Senado para analizar el impacto de la IA en procesos electorales.
No había disposiciones sobre contenido sintético, deepfakes, manipulación automatizada de información o el uso de sistemas algorítmicos para amplificar campañas de desinformación. Estábamos entrando a una nueva era tecnológica con reglas diseñadas para un ecosistema digital que ya había cambiado.
Promovimos ese debate para anticipar estos riesgos y abrir conversación sobre cómo proteger la integridad de la información en contextos electorales.
Hoy, la presidenta Claudia Sheinbaum ha planteado incluir la regulación del uso de IA en la reforma electoral, particularmente, frente al riesgo que representan los deepfakes y otras formas de manipulación digital.
La regulación de tecnologías como la IA no puede construirse desde una sola trinchera. Requiere un trabajo coordinado entre academia, gobierno, sector privado y sociedad civil, lo que se conoce como el modelo de la cuádruple hélice de innovación.
La autorregulación de la industria es importante y valiosa. Muchas de las empresas que desarrollan estas tecnologías ya han adoptado principios de responsabilidad, seguridad y transparencia. También existen marcos internacionales que han sentado bases importantes para su gobernanza. Estos instrumentos han sido fundamentales para orientar el desarrollo responsable de la tecnología.
El desafío es regular con inteligencia: con un enfoque basado en riesgos, con diálogo entre sectores y una visión que combine innovación, derechos y seguridad.
La IA ofrece oportunidades extraordinarias para el progreso humano. Pero también nos obliga a anticipar sus riesgos. En un mundo donde la desinformación viaja más rápido que la verdad, proteger la integridad de la información no es solo un asunto tecnológico.
Es, ante todo, un desafío para nuestras democracias y para la manera en la que decidimos construir el futuro digital.
POR ALEJANDRA LAGUNES
HTTPS://WWW.ALEJANDRALAGUNES.MX/ANIA
