menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

La IA y la educación

11 0
22.04.2026

Para la rendición de cuentas de los alumnos existían "sistemas de evaluación que pedían productos y trataban esos productos como evidencia de aprendizaje. Nos estábamos saliendo con la nuestra. Hasta ahora". Son palabras de Santiago Schnell, especialista en inteligencia artificial (IA). En efecto, "cuando un estudiante puede producir un trabajo elaborado en minutos introduciendo unas instrucciones en ChatGPT, la pregunta ya no es si nuestras tareas miden el aprendizaje, es por qué fingimos durante tanto tiempo que lo hacían".

En Dartmouth, en el verano de 1956, John McCarthy acuñó ese término, "inteligencia artificial". Hoy, 70 años después, los descendientes de aquel proyecto producen prosa, redactan código y sintetizan argumentos con una fluidez que puede dar el pego y pasar por el trabajo de una persona bien formada.

Para el mencionado Schnell, "la IA nos está forzando a ver con claridad que hay una diferencia fundamental entre producir un resultado y formar un juicio. Un carpintero puede delegar el corte en una sierra mejor. Un investigador no puede delegar el acto de advertir qué es extraño, atender a lo que no encaja y formular la pregunta que nadie ha pensado en hacer. Estos actos no tienen efecto a menos que los haga una persona. Su propósito no es producir un resultado. Es formar a quien los realiza".

Lo malo es que la IA repite lo que ya se ha pensado. La pregunta verdaderamente nueva, la que aún no existe en los datos de entrenamiento, solo puede formularla una mente dispuesta a situarse en la incertidumbre y pensar desde allí con disciplina y valentía. La IA puede redactar un ensayo. No puede someter a examen a una mente.

Schnell se fija sobre todo en la enseñanza y por ello recomienda su rediseño:

"Más escritura hecha en clase. Más defensa oral de argumentos: una conversación de diez minutos revela si un estudiante entiende una afirmación o simplemente la ha producido. Más seminarios organizados en torno a preguntas vivas. Cuando los estudiantes usen IA, exigir transparencia: que expliquen qué pidieron, qué produjo el sistema, qué conservaron y qué descartaron. El objetivo no es la vigilancia. Es la responsabilidad intelectual".

A mí, la IA me produce un cierto repelús, y más sabiendo lo que ha pasado con el modelo Claude Mythos Prewiew, de Anthropic. Anthropic decidió retirar hace poco el acceso público ese modelo, que es el más avanzado que tiene. Y lo hizo tras detectar que era capaz de identificar -y explotar- vulnerabilidades en sistemas de software críticos, algunas de las que no se había sabido durante décadas. Según The New York Times, la medida se tomó después de que el modelo revelara fallos graves en programas ampliamente utilizados, por lo cual la compañía limitó el acceso al modelo a unas 50 grandes organizaciones, entre ellas Amazon, Apple, Microsoft, Google y JPMorgan Chase.

Estas capacidades y los riesgos asociados podrían afectar a plataformas de streaming, servicios bancarios en línea y motores de búsqueda, entre otros, con el potencial de inutilizar partes centrales de Internet.

Pero no sólo. Antes de esa decisión de Anthropic, los modelos de IA accesibles al gran público ya eran capaces de identificar vulnerabilidades en el software común. Como para no asustarse.


© El Economista