menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Silicon Valley no quiere tus datos. Prefiere tu pensamiento

8 0
23.03.2026

Los gigantes que desarrollan los modelos de inteligencia artificial han dejado de tratar la Inteligencia Artificial General (AGI) como un condicional "si" y han empezado a planificarla como un inminente "cuándo". En el reciente World Economic Forum (WEF) pudimos oír predicciones que la sitúan tan cerca como 2026 o 2027. Sin embargo, mientras estos ejecutivos se preparan para lanzar sistemas capaces de superar la cognición humana en la mayoría de los dominios, el debate público continúa atrapado en un marco regulatorio diseñado para el siglo pasado.

La ilusión de la protección de datos

Nos hemos acostumbrado a mecanismos de protección concebidos para un mundo que ya no existe. Nuestros marcos de protección —desde el RGPD hasta el propio AI Act europeo— se diseñaron para regular el uso de los datos y los riesgos del sistema: qué compras, dónde haces clic, qué daño puede causarte. Pero el problema ya no es solo el daño directo. Estos sistemas pueden inferirnos. Procesando nuestro razonamiento e intereses, nuestras dudas o nuestros temores, los grandes modelos de lenguaje pueden reconstruir perfiles psicológicos más profundos con mucha mayor precisión que las personas que nos conocen de cerca. Mientras sentimos que estamos protegidos cuando rechazamos una cookie, los modelos ya están trazando los contornos de lo que somos. Regulamos con meticulosidad la puerta de la caseta del perro mientras las paredes de la casa se vuelven de cristal.

La privacidad definió los conflictos de la era digital. La soberanía cognitiva definirá los de la era de la inteligencia artificial.

La geopolítica del stack tecnológico

Un pequeño grupo de consejos de administración en Silicon Valley está empezando a actuar como regulador global de facto, operando más allá del alcance práctico de la ley soberana. Los Estados pueden legislar sobre la tecnología, pero ya no la gobiernan.

Y dentro de esta arquitectura, la inteligencia artificial puede dejar de ser simplemente un software o servicios informáticos de pago. La IA empieza a querer comportarse como un actor económico. Ya han aparecido las primeras señales de modelos de participación en beneficios, en los que los propietarios de la IA reclaman una parte del valor generado en las industrias que dependen de ella. Aquí ya no se trata de una licencia o de un pago por uso, sino de una extracción estructural de valor generado a través del riesgo y del conocimiento ajenos. Pero la extracción no es solo económica.

Cuando el conocimiento emerge fuera de la mente humana

Puede que estemos acercándonos a un punto de no retorno. Durante siglos, el valor profesional y empresarial residió en el saber hacer —la experiencia singular, las formas propias de resolver problemas—. Y aun reconociendo que el conocimiento se almacena fuera del cerebro individual hace siglos, desde las tablillas de arcilla hasta los libros impresos, lo verdaderamente inédito de la IA es que la propia cognición empieza a ejecutarse fuera del cerebro humano. Un abogado no solo pide jurisprudencia, sino opinión sobre la lógica jurídica de un escrito, al igual que un ingeniero pide un diseño o un científico la interpretación de ciertos resultados de un experimento.

Este razonamiento, que a la larga se convierte en conocimiento, comienza ahora a desplazarse desde las mentes humanas hacia los pesos y los tokens de modelos externos. El riesgo no es solo que las máquinas piensen mejor que nosotros, sino que el acto de aprender empiece a producirse cada vez más fuera de nuestras mentes. Ese aprendizaje tiene lugar en un espacio para el que no hemos previsto mecanismos claros de recuperación o transmisión. Ni siquiera aquellos que promueven la generación del conocimiento, entrenando al modelo con su propia experiencia e información, pueden recuperarlo plenamente para sí. El conocimiento comienza a generarse y conservarse dentro del propio sistema.

Estaríamos así entrando en una situación paradójica: el conocimiento, la memoria y la capacidad de discernir empiezan a quedar almacenados en silos electrónicos. En cierto sentido, sería un espacio retrógrado, comparable al del ser humano antes de la escritura, cuando el conocimiento no podía separarse del lugar donde se producía.

La otra cuestión crucial no es si estos sistemas estarán controlados —que lo estarán sin duda, aunque solo sea apagándolos—, sino quién ejercerá ese control y bajo qué criterios. Ante esta concentración de poder, algunas corrientes proponen mecanismos de contención: desde las barreras técnicas que plantea Mustafa Suleyman —cofundador de DeepMind y autor de The Coming Wave— hasta el control institucional que defiende Yuval Noah Harari en 21 lecciones para el siglo XXI.

Pero la historia sugiere que las concentraciones extremas de poder rara vez permanecen incontestadas durante mucho tiempo. Desde las monarquías absolutas hasta la informática de los grandes mainframes, el poder ha nacido centralizado antes de que potentes presiones tecnológicas y sociales lo empujaran de nuevo hacia el perímetro. La inteligencia artificial puede representar para nosotros no tanto una ruptura como, más bien, una recurrencia: un patrón que la historia ya ha visto antes, la centralización del poder seguida del camino contrario.

La descentralización, en este contexto, no sería una preferencia ideológica sino una respuesta estructural, en forma de un desplazamiento del control hacia el origen mismo del pensamiento y de la intención. Igual que ocurrió con el ordenador personal cuando desplazó a los mainframes, podrían emerger modelos de inteligencia artificial privada, personal, y seguramente ya lo están haciendo.

¿Cuánto tiempo tardarán las fuerzas de la descentralización en reaparecer?

*José Manuel Arnaiz, consejero independiente y cofundador de DIGI


© El Confidencial