menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Mythos: IA, poder y ética

2 0
thursday

Se ha producido un acontecimiento tecnológico que marcará un antes y un después en la relación de nuestra sociedad con la IA. El 27 de marzo Fortune publicó la existencia de un nuevo modelo, Mythos, de la empresa americana Anthropic. Mythos altera de forma radical el panorama de la ciberseguridad a la vez que abre un escenario nuevo de poder en un sentido amplio.

Anthropic, una de las cuatro grandes occidentales en IA, saltó a los titulares justo un mes antes cuando el Pentágono rompió sus negociaciones con ella y la declaró supply chain risk. No podía aceptar su negativa a que se usase su tecnología para vigilancia doméstica masiva y en armas autónomas. La disyuntiva de Anthropic era seguir con el contrato o mantener su línea roja ética y de seguridad: optaron por la segunda. Dario Amodei, su CEO, fundó Anthropic tras su salida de OpenAI con un planteamiento muy estricto sobre las barreras o guardarraíles éticos que debe tener la IA. En junio publicaremos nuestro libro en Deusto (parte del Grupo Planeta) "Sabiduría artificial", un nuevo concepto que hemos anticipado porque nuestro futuro va a estar más vinculado a esta sabiduría que a la IA como mero desarrollo tecnológico. Esto va mucho más allá que la tecnología como motor de cambio y mucho más rápido de lo que sabemos.

El pasado martes Anthropic confirmó la existencia de Mythos; sus nuevas capacidades anuncian un cambio de era en la IA. Mythos es tan potente que ha sido capaz de encontrar miles de vulnerabilidades críticas en todos los sistemas operativos importantes, incluyendo los que protegen nuestras infraestructuras esenciales. Algunos de estos fallos llevan presentes sin explotar durante décadas. Mythos cumple con la previsión de que una sola IA podría ser la ganadora absoluta si los humanos no intervenimos para que no resulte inalcanzable, y esto es lo que ha sucedido. Estamos de enhorabuena porque la empresa propietaria ha actuado responsablemente, éticamente.

Anthropic es famoso por su IA Claude. Su modelo destaca por sus capacidades de programación. Ha sido capaz de superar continuamente todas las expectativas, y es la base de los principales entornos de vibe coding, o programación asistida por IA. No es extraño que hayan sido ellos los que han encontrado la "IA superprogramadora", y que su primera contribución ⎯porque así se le ha pedido⎯ haya sido el mostrarnos cuán deficiente ha sido nuestro producto hasta el momento. Estamos ante una super IA que ha desnudado a las demás.

Lo primero que ha hecho Anthropic ha sido anunciar que, por ahora, NO va a poner Mythos a disposición del público. Es otra decisión de negocio muy en la línea de su ruptura con el Pentágono, en aras a salvaguardar el bien común. La liberación generalizada de Mythos tendría implicaciones muy difíciles de gestionar en términos de seguridad. Mythos tiene una capacidad de doble uso con potencial sistémico. Cualquier empresa o gobierno con acceso a este modelo sería capaz en minutos de encontrar agujeros de seguridad de sus competidores, de los bancos, de las universidades, de los gobiernos…

En momentos así conviene recordar algo esencial: la empresa no es solo un mecanismo de eficiencia, sino una institución de responsabilidad con un propósito social. Dirigir no consiste en servirse de la tecnología para ganar una ventaja táctica inmediata, sino en ponerla al servicio de la empresa, de sus accionistas, trabajadores, proveedores, clientes y de la sociedad a la que esa empresa debe su legitimidad. La irrupción de capacidades como Mythos obliga, por tanto, a elevar el nivel del gobierno corporativo. Ya no basta con delegar en el área técnica o en el responsable de seguridad. El Consejo de Administración, la alta dirección y los supervisores y reguladores tienen que asumir un cambio de gobierno empresarial porque estamos ante una potencia nueva que exige prudencia de aplicación con criterio y una noción exigente de servicio al bien común en coherencia con el propósito de la empresa.

Vivimos en la sociedad de la información. Prácticamente todos nuestros contratos sociales se basan en la integridad de activos digitales: la cantidad de dinero que tenemos en la cuenta del banco, que no fallen los controles en los sistemas de transporte, el suministro de energía, la limpieza de los procesos electorales,… la lista es grande. No podemos concebir una sociedad en la que nuestros sistemas sean vulnerables al ataque de cualquier entidad maliciosa con un arma superior como Mythos en sus manos.

La historia económica enseña que la tecnología potencia a la vez nuestras posibilidades de crear valor y también de destruirlo. La diferencia nunca está solo en la potencia de la herramienta, sino en la calidad moral e institucional de quienes la gobiernan. Por eso el reto de esta nueva fase no es frenar la inteligencia artificial, sino someterla a una arquitectura de responsabilidad: reglas claras, trazabilidad, supervisión efectiva y liderazgo capaz de sostener la verdad frente al corto plazo. Si la empresa quiere seguir siendo un actor legítimo en la sociedad que viene, tendrá que demostrar que sabe gobernar esta nueva inteligencia no solo con ambición, sino también con responsabilidad. Pero… con un cambio radical, la arquitectura de responsabilidad no solo dependerá de los humanos que todavía tienen el control sino de la propia IA que tomará el mando para desarrollar sabiduría artificial.

Como decíamos más arriba, nuestro libro "Sabiduría artificial" señala como piedra angular del sistema el comportamiento ético de las empresas. Hoy son el principal motor del desarrollo de la IA y con él, del progreso de la Humanidad. O la IA responde a valores éticos, a valores humanos, o estaremos perdidos.

¿Qué ha hecho Anthropic? Ha creado la iniciativa Glasswing, cediendo para que se protejan una versión preliminar de Mythos a algunas de las empresas más importantes que desarrollan nuestras infraestructuras tecnológicas: Amazon (AWS), Microsoft, Linux Foundation, Apple, Google, NVIDIA o JPMorganChase, entre otras. Esta iniciativa muestra que el escenario ha cambiado de verdad. Glasswing anuncia un cambio de era en el que la IA puede encontrar, explotar y corregir vulnerabilidades a una velocidad que obliga a repensar estrategia, riesgo y procedimientos. Y esto es sólo el principio. De momento los líderes colaboran. ¿Vamos a un oligopolio del bien? La ventana entre descubrir fallos en el software y arreglarlos, el ciclo tradicional de la ciberseguridad, se ha hundido. Lo que Mythos ha descubierto por miles son fallos zero-day, como se conoce a los que dejan cero días de margen entre el descubrimiento útil del fallo y la necesidad de defenderse o parchearlo. No hay tiempo, porque el atacante puede explotarlo antes de que haya defensa madura. Es decir, cualquiera con esta tecnología puede entrar en cualquier lugar público o privado y cambiar lo que le plazca. En nuestros ordenadores, en nuestras centrales eléctricas, en nuestros gobiernos...

Si buscamos un precedente histórico a la aparición de Mythos habría que hacer referencia a las armas nucleares que dieron una ventaja estratégica imbatible a nivel geopolítico. Lógicamente se tardó poco en extender la posesión de armas de destrucción masiva y se entró en un modelo de "disuasión mutua". Llegados a este punto con la IA, veremos como otros actores, públicos y privados, desarrollan paralelamente estas capacidades. Está en nuestra mano, de nuestros gobiernos y empresas, tomar en serio los riesgos y asumir el liderazgo para proteger adecuadamente nuestras vidas, usando Mythos y sus sucesores como compañeros que protejan nuestra sociedad y nos acompañen en el camino en el que la inteligencia ya no es una capacidad exclusivamente tecnológica que evoluciona rápidamente a una superinteligencia que podría superar y controlar a todas las demás.

En "Sabiduría artificial" hablamos de la mutación del capitalismo, del liderazgo en el cambio de las empresas y de la aplicación ética del poder que la IA desplegará si no interrumpimos el proceso, bien sea por un colapso medioambiental o un conflicto nuclear. La cuestión decisiva es si seremos capaces de darle un marco ético firme antes de que su potencia operativa reorganice por sí sola nuestras decisiones, nuestras infraestructuras físicas y sociales y, con ellas, las condiciones básicas de nuestra convivencia.

Si una IA puede llegar a operar sobre el software crítico del que dependen compañías, servicios esenciales y buena parte de la vida económica, entonces el problema deja de ser solo empresarial. Ya no hablaremos únicamente de productividad, ventajas competitivas o liderazgo tecnológico. Hablaremos de algo más trascendente: de la necesidad de asegurar que una inteligencia con capacidad creciente esté orientada por valores que no dependan del interés económico del momento, ni del poder político circunstancial, ni del, finalmente, poder total porque una IA gane la carrera y resulte inalcanzable, por sí misma con propósito y consciencia, o porque la propietaria humana así lo decida. Una inteligencia sin orientación moral puede optimizar, pero también degradar; puede proteger, pero también someter; puede aumentar la eficiencia y, al mismo tiempo, vaciar de dignidad aquello que toca. Por eso el desafío de esta nueva etapa no consiste solo en construir modelos más capaces, sino en escribir en su ADN operativo un marco de verdad, justicia y belleza. No como un adorno reputacional, sino como una condición necesaria de convivencia en un futuro transhumanista. En esa tarea nos jugamos mucho más que una posición en el mercado. La partida es que la nueva potencia cognitiva que estamos creando no termine volviéndose contra aquello que pretendía proteger. Asegurar el marco ético en la inteligencia artificial no es, por tanto, un lujo filosófico. Es un imperativo de prudencia, de responsabilidad y, en último término, de supervivencia civilizatoria.

*Juan María Nin, junto a María José Sánchez Yago, José Luis Vázquez, Phil (IA) y Kai (IA)


© El Confidencial