Inteligencia (o no) artificial y Derecho
Inteligencia (o no) artificial y Derecho / La Provincia
La semana pasada se dio a conocer una resolución del Tribunal Superior de Justicia de Navarra en la que se advierte “de las implicaciones legales, deontológicas y éticas que puede plantear el uso descuidado de las nuevas tecnologías”, en concreto, de la inteligencia artificial, cuyo uso fraudulento puede ser sancionable económicamente por mala fe procesal. En el mes de febrero, ese mismo tribunal acordó abrir a una abogada un procedimiento sancionador por incluir en un recurso presentado en octubre de 2025 hasta ocho citas inventadas de sentencias del Tribunal Constitucional, Tribunal Supremo, Tribunal Superior de Navarra y Tribunal Superior de Madrid, que habían sido extraídas de una de estas herramientas informáticas supuestamente inteligentes. La Sala consideró que “esa actuación de la letrada constituye, además de una vulneración de la buena fe procesal, una falta de respeto a los magistrados, un desprecio de la función jurisdiccional que desempeñan y una perturbación del trabajo de este Tribunal”.
No obstante, el Tribunal ha optado finalmente por no sancionar a la letrada, dado que esta se apresuró a pedir disculpas con la presentación de escritos reconociendo su error. Los magistrados consideraron que «en la singularidad del caso que nos ocupa, la inmediata reacción de la letrada excusando el error cometido determina que la Sala se incline por el archivo de la presente pieza separada sin imponer la correspondiente sanción pecuniaria, sirviendo la presente de advertencia de las implicaciones legales, deontológicas y éticas que puede plantear el uso descuidado de las nuevas tecnologías”. Concluye la Sala navarra que el uso de las tecnologías emergentes y de los materiales generados por inteligencia artificial en los procedimientos judiciales no está exento de importantes consideraciones éticas y legales para garantizar un uso responsable, “lo que impone una verificación adicional, puesto que la revisión y validación de los documentos legales seguirá siendo responsabilidad de los abogados para garantizar la precisión y el cumplimiento normativo”.
Da la casualidad de que, justo un mes antes, la Sala de lo Penal del Tribunal Superior de Justicia de Canarias impuso una multa de 420 euros a un abogado como autor de una actuación contraria al deber de veracidad y a las reglas de la buena fe con abuso del servicio público de la Justicia, consumada al introducir hasta cuarenta y ocho citas de jurisprudencia falsas, generadas por inteligencia artificial, en un recurso de apelación. Además de la multa, el Tribunal acordó dar traslado de su decisión y de los antecedentes al Colegio de Abogados del afectado, a fin de que “si procediera, depure las responsabilidades disciplinarias en que haya podido incurrir”.
Según la resolución del tribunal canario, el abogado, en la elaboración de un recurso de apelación, se valió de una herramienta de inteligencia artificial “generalista” -es decir, no de una solución específicamente diseñada en el ámbito jurídico- para introducir en la fundamentación numerosas citas de sentencias del Tribunal Supremo y un informe del Consejo General del Poder Judicial que supuestamente avalaban su postura en el pleito y que, en realidad, no existían. La Sala advierte que el abogado no sometió a “revisión ni verificación alguna” que las citas se correspondieran con resoluciones o informes reales: “No contrastó que los números de sentencia, las fechas y los identificadores existieran efectivamente”, resalta, y “no verificó los datos de salida de la herramienta de IA con las bases de datos de jurisprudencia para confirmar siquiera una de esas referencias, lo que le hubiera puesto sobre aviso”.
Pero el peligro y la cautela no sólo están del lado de los abogados. También en el mes de enero de este año se difundió la noticia de que un letrado presentó una queja ante el Consejo General del Poder Judicial tras detectar que una resolución judicial se apoyaba en supuestas sentencias del Tribunal Supremo que no existen y que habrían sido generadas mediante herramientas de inteligencia artificial. La queja ha sido presentada por un miembro del Ilustre Colegio de Abogados de Melilla contra el titular del Juzgado de Instrucción número 5 de Ceuta, a raíz de un Auto dictado el 1 de diciembre de 2025 en un procedimiento penal.
Tales incorrecciones demuestran que la supuesta inteligencia artificial no lo es tanto y que, con independencia de que su uso pueda resultar de ayuda en estas labores profesionales, no puede sustituir en modo alguno el criterio y el estudio del ser humano que, como profesional, debe verificar personalmente el contenido de sus escritos o de sus resoluciones judiciales. No obstante, las implicaciones entre la inteligencia artificial y el mundo del Derecho no se limitan al ámbito procesal y a los escritos presentados y las resoluciones dictadas en los procedimientos judiciales. Evidentemente, afectan al conjunto de los ciudadanos, dado que su uso irresponsable puede acarrear vulneraciones de derechos fundamentales.
También la semana pasada, el Consejo General del Poder Judicial aprobó un informe sobre el anteproyecto de Ley para el buen uso y la gobernanza de la IA. Dicha norma se está tramitando para el desarrollo del Reglamento 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial, así como del previo Reglamento de la Unión Europea 2020/1828 de Inteligencia Artificial. Se prevé que el ordenamiento español incorpore un modelo en el que se designen diversos órganos responsables de la supervisión de los sistemas de IA utilizados en ámbitos sectoriales específicos. Entre estas autoridades se encuentra el propio Consejo General del Poder Judicial, al que el anteproyecto atribuye esta condición mediante la designación de su Dirección de Supervisión y Control de Protección de Datos, como autoridad de vigilancia del mercado respecto de los sistemas de inteligencia artificial empleados en el ámbito de la Administración de Justicia.
Paralelamente, asimismo se está tramitando la aprobación de una nueva Ley Orgánica de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen. Esta futura norma, si se aprueba, contempla una nueva modalidad de intromisión ilegítima en estos derechos, consistente en la utilización o difusión de la imagen o la voz de una persona que haya sido creada, simulada o manipulada tecnológicamente para dotarla de una apariencia extremadamente realista. Esta protección civil frente al uso de este tipo de falsificaciones está en línea con la proyectada reforma del Código Penal, prevista en el Proyecto de Ley Orgánica de protección de las personas menores en los entornos digitales, donde se introduce un nuevo artículo 173 bis en el que se sanciona a quienes, sin autorización de la persona afectada y con ánimo de menoscabar su integridad moral, difundan, exhiban o cedan su imagen corporal o audio de voz generada, modificada o recreada mediante sistemas automatizados, software, algoritmos, inteligencia artificial o cualquier otra tecnología de modo que parezca real, simulando situaciones de contenido sexual o gravemente vejatorias.
Como ha manifestado en varias resoluciones el Tribunal Constitucional, nuestra Carta Magna no consagra derechos meramente teóricos o ilusorios, sino reales y efectivos, lo que hace imprescindible asegurar su protección, no sólo frente a las injerencias tradicionales, sino también frente a los riesgos que puedan surgir en una sociedad tecnológicamente avanzada. Pasa el tiempo y los peligros para los derechos fundamentales ya conquistados continúan y se reinventan. Por lo tanto, hay que permanecer alerta y adecuar nuestras normas para garantizar la efectividad de dichos derechos. n
Inteligencia artificial
Consejo General del Poder Judicial
