La inteligencia artificial informa, pero no forma
No son pocos los errores que se vienen cometiendo en múltiples actividades, por el uso de la información frecuentemente errática consignada en el depósito de datos articulado por imperfectos algoritmos que algunos llaman inteligencia artificial (IA).
Tampoco son pocos los yerros que se cometen en cálculos, definiciones semánticas y en la interpretación de normas legales, doctrinas, decisiones judiciales y hasta en la aplicación de la jurisprudencia, por la utilización de textos tomados de la denominada IA.
Pero peor aún resulta, cuando el uso de esos textos, sustenta equivocadas decisiones u origina sanciones y hasta expulsiones de estudiantes universitarios por incurrir en el arriesgado facilismo de elaborar trabajos, ensayos y hasta tesis de grado valiéndose del plagio, el que de suyo se consuma, cuando se copian enrevesados textos tomados de la mencionada IA y con ello, se intenta suplantar la estructuración y elaboración de ellos.
No en vano, y mucho antes de que el llamado “padre de la inteligencia artificial”, Alan Turing, esbozará los cimientos de ella, algunos visionarios adelantados ya manifestaban sus reservas. Es así como Isaac Asimov en la década de los 50, afirmó que la información robótica sería una peligrosa arma de doble filo, por informar con amplio margen de error y no contribuir a la formación de quienes la consultaran.
A su vez el propio Elon Musk propaló severas críticas sobre la IA al decir “Con la inteligencia artificial estamos convocando al demonio, y puede ser más peligrosa que las armas nucleares por aniquilar la capacidad de análisis de la especie humana”, empero su ácida prédica, Musk creó OpenAI para desarrollar lo que llamó “inteligencia artificial amigable”.
Por su parte el encumbrado científico Stephen Hawking, no perdió oportunidad para fustigar la IA y sobre su advenimiento dijo que podría constituir........
