Inteligencia artificial, ética y universidad
Inteligencia artificial, ética y universidad
La irrupción de la inteligencia artificial (IA) está siendo analizada en nuestra sociedad con una mirada desequilibrada. Predominan los discursos centrados en sus riesgos, amenazas y posibles efectos adversos, mientras que las oportunidades que ofrece quedan, con frecuencia, relegadas a un segundo plano. Este enfoque no solo es parcial, sino también poco útil. Porque la IA ya no es una hipótesis de futuro ni una opción que pueda aceptarse o rechazarse, es una realidad presente que está transformando la manera en que trabajamos, aprendemos e investigamos.
Pero, el verdadero problema no es la IA. El problema está en cómo se está abordando —o evitando abordar— su incorporación, especialmente en el ámbito universitario. En lugar de asumirla como una herramienta que requiere comprensión, adaptación y regulación, muchas instituciones parecen optar por estrategias defensivas, limitando su uso, controlándolo o incluso prohibiéndolo. Una pretensión ingenua y profundamente irreal, si se tiene en cuenta el acceso abierto, masivo y cotidiano que el estudiantado ya tiene a estas tecnologías.
En el ámbito de la docencia, la reacción ha sido particularmente reveladora. Mientras el alumnado incrementa el uso de la IA como apoyo para el estudio, una parte del profesorado percibe esta realidad como una amenaza a su función. Se habla de fraude, de pérdida de esfuerzo, de atajos inadmisibles.
¿Qué está ocurriendo en las aulas para que cada vez más estudiantes consideren que pueden aprender mejor fuera de ellas que dentro? Las aulas no se vacían por la IA. Se vacían porque, en demasiadas ocasiones, la docencia sigue anclada en metodologías que han dejado de ser eficaces y atractivas. El problema, por tanto, no es que el alumnado utilice la IA, sino que encuentre en ella lo que no encuentra en la universidad.
Esto genera un círculo vicioso difícil de romper. El profesorado lamenta la falta de asistencia; el alumnado desconecta de una docencia que no le aporta valor diferencial; y ambos conviven en una dinámica de insatisfacción mutua sin abordar las causas reales. Mientras tanto, el uso de la IA crece, pero lo hace, en muchos casos, sin criterio ni formación, convirtiéndose más en una herramienta de riesgo que en un recurso de aprendizaje.
Frente a esta situación, la respuesta no puede ser la prohibición, sino la transformación. Incorporar la IA a la docencia no significa renunciar al rigor ni facilitar el fraude. Significa rediseñar los procesos de enseñanza para que la IA deje de ser un sustituto y pase a ser un complemento. Significa formar al profesorado no solo en el uso técnico de estas herramientas, sino en su integración pedagógica. Y significa, sobre todo, asumir que enseñar ya no consiste en transmitir información, sino en desarrollar pensamiento crítico, capacidad de análisis y juicio ético.
En el ámbito de la investigación, la paradoja es más evidente. Mientras en la docencia se teme la IA, en la investigación se la abraza, pero no siempre por las razones adecuadas. La presión por publicar —convertida en eje central de la carrera académica— ha generado un sistema en el que la producción científica se mide más por la cantidad que por la calidad.
Pero aquí tampoco el problema es la herramienta, sino el uso que se hace de ella. Cuando la IA se utiliza para agilizar procesos sin comprometer el rigor, puede ser una aliada valiosa. Cuando se convierte en un atajo para inflar currículos o cumplir métricas, se pervierte el sentido mismo de la investigación. Lo que se presenta como avance tecnológico acaba siendo, en realidad, un síntoma más de un modelo académico desajustado, donde publicar ha dejado de ser sinónimo de investigar.
Llegados a este punto, resulta evidente que el debate sobre la IA no puede plantearse en términos dicotómicos sobre usarla o no usarla. Esa discusión está superada por la realidad. La cuestión relevante es cómo utilizarla. Y esa pregunta remite inevitablemente a la ética.
La IA no tiene ética. No decide por sí misma qué es correcto o incorrecto. Esa responsabilidad recae exclusivamente en quienes la utilizan. Por ello, resulta imprescindible avanzar hacia marcos normativos y deontológicos que orienten su uso en el ámbito académico. No se trata solo de regular, sino de educar en su uso responsable, crítico y transparente.
La universidad, como institución generadora de conocimiento y pensamiento crítico, no puede situarse al margen de este proceso. Debe liderarlo. Debe repensar sus metodologías docentes, revisar sus sistemas de evaluación, replantear sus criterios de investigación y, sobre todo, formar a su profesorado y a su estudiantado en un uso ético y riguroso de la IA.
Trabajar con la IA, y no contra ella, es una necesidad estructural. De lo contrario, no será la universidad quien decida qué papel juega la IA en su futuro, sino la IA la que termine evidenciando las limitaciones de una universidad que no supo adaptarse a tiempo.
Suscríbete para seguir leyendo
inteligencia artificial
