menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Quién frenará la carrera armamentística de la IA (II)

26 0
23.03.2026

En la revista digital Tech Policy Press se publicó recientemente el artículo America’s First War in Age of LLMs Exposes Myth of AI Alignment, de Eryk Salvaggio, señalando que el conflicto militar entre Estados Unidos, Israel e Irán podría marcar la primera guerra importante en la era de los grandes modelos de lenguaje (LLM), es decir, sistemas de Inteligencia Artificial (IA) capaces de analizar enormes volúmenes de información y generar textos, análisis o recomendaciones a partir de ellos.

Más allá de la coyuntura política, el autor utiliza este episodio para cuestionar una idea recurrente del debate tecnológico: la creencia de que la IA puede alinearse de manera confiable con valores humanos y restricciones éticas.

El texto parte de un hecho revelador: el creciente uso de sistemas de IA en tareas militares como análisis de inteligencia, planificación de operaciones y selección de objetivos. Según el artículo, herramientas basadas en LLM pueden integrarse con bases de datos militares para transformar procesos de planificación que antes tomaban semanas en decisiones operativas casi en tiempo real.

Esta evolución supone un cambio cualitativo. La inteligencia artificial no necesita accionar armas ni controlar sistemas autónomos para influir en la guerra. Basta con que participe en la producción de análisis, narrativas o recomendaciones que orienten las decisiones de los mandos militares.

Según Salvaggio, el concepto de “alineamiento” –la idea de diseñar sistemas de IA que respeten valores humanos o principios éticos– tiene límites estructurales. Incluso si una empresa tecnológica intenta restringir el uso de sus sistemas para fines militares, los gobiernos pueden imponer su utilización mediante presión política, regulación o medidas de seguridad nacional.

En ese sentido, la guerra en la era de la inteligencia artificial no se define necesariamente por robots armados, sino por sistemas que ayudan a pensar, justificar o comunicar la violencia organizada.

Pero el argumento de Salvaggio va más lejos. Estos sistemas no solo pueden ayudar a planear operaciones militares; también influyen en la forma en que las sociedades comprenden la guerra. Algo similar ocurre cuando los ciudadanos dialogan con estos sistemas sobre guerra, ética o derechos humanos. La conversación puede dar la impresión de reflexión o reacción moral, cuando en realidad solo se ha consumido información o confirmado una opinión previa.

La reflexión final es inquietante. Si las máquinas terminan liberándonos del peso de imaginar las consecuencias humanas de la guerra, habremos perdido algo esencial. La capacidad de sentir ese peso –de comprender el costo real de la violencia– ha sido siempre parte de la conciencia moral que limita el poder.

Este episodio nos recuerda que no puede dejarse la regulación del uso de la IA únicamente en manos de las empresas que la desarrollan. Sin marcos legales vinculantes, acuerdos entre Estados y mecanismos efectivos de supervisión, la ética corporativa corre el riesgo de convertirse en un simple adorno.

En la era de la IA, la gobernanza de estas tecnologías y su relación con el poder militar es uno de los grandes temas de la diplomacia, la seguridad internacional y el futuro del orden global.

EX-SUBSECRETARIO DE RELACIONES EXTERIORES


© El Heraldo de México