Conferencia: "¿Inteligencia artificial en Justicia? Sí, pero con garantías legales y constitucionales que hoy no se dan"
Lorenzo Cotino Hueso
Catedrático de Derecho Constitucional de la Universitat de València Valencia. Valgrai. Director del Observatorio de transformación del sector público
¿Es el futuro de la inteligencia artificial en la justicia una necesidad o un riesgo?
La inteligencia artificial (IA) está transformando muchos sectores, y la justicia no es la excepción. Sin embargo, su uso en este ámbito genera tanto entusiasmo como, especialmente, preocupación. Muestra de ello es la muy interesante película Justicia Artificial. Es de interés abordar la cuestión clave de cómo la IA puede ser utilizada en el contexto jurisdiccional y especialmente para usos propiamente jurisdiccionales, y no tanto para cuestiones colaterales de gestión, que también son de todo interés para agilizar y mejorar el funcionamiento de nuestra justicia. Respecto del uso jurisdiccional pasa a ser esencial el respeto de las garantías constitucionales y la supervisión necesarias para asegurar que su implementación sea efectiva y respetuosa con los derechos y garantías. Se trata de una reflexión que he tenido ocasión de abordar con mayor profundidad recientemente en la revista Actualidad Jurídica Iberoamericana, nº 21, 2024
¿Por qué necesitamos la IA en el ámbito jurisdiccional?
El uso de sistemas automatizados y de inteligencia artificial en el ámbito judicial ofrece enormes posibilidades. A pesar de la reticencia de muchos juristas, como el Informe reciente liderado por Martínez Garay con Amnistía Internacional , la realidad es que los sistemas IA ya están presentes en más de cien iniciativas en Europa, la mayoría en gestión administrativa, y países como China ya los han implementado en el ejercicio de la justicia. En particular, China planea hacer obligatorio el uso de IA en sus tribunales para 2025. No obstante, en regiones como Iberoamérica, con proyectos como o el JUSLAB en Argentina, se vislumbran posibilidades más ambiciosas.
Sin embargo, a pesar del potencial, el debate sobre la utilización de la IA en la toma de decisiones jurisdiccionales sigue abierto. Parece en Europa, o al menos en España, que son muchos más los que temen que estas tecnologías vulneren garantías e incluso que puedan usurpar el papel de los jueces humanos. En España el CGPJ afirma la potestad jurisdiccional está ontológicamente ligada a la naturaleza humana y en esta dirección va también la muy interesante sentencia de agosto de 2024 de la Corte Constitucional de Colombia. Otros entre los que me encuentro, señalan la necesidad de optimizar el funcionamiento del sistema judicial y garantizar una mayor eficiencia merced a las tecnologías disruptivas. Eso sí, con garantías.
Fuente: Imagen generada por Walle
¿Es suficiente el marco regulatorio actual?
El Reglamento de Inteligencia Artificial de la Unión Europea (RIA) ha clasificado ciertos sistemas de IA como de “alto riesgo”, con especial importancia el ámbito de la llamada “aplicación de la ley” (usos policiales, penales, control de fronteras y afines), así como específicamente respecto de la justicia. Estos sistemas de alto riesgo judicial que menciona el RIA son directamente jurisdiccionales, no accesorios o de Administración de Justicia, e incluyen herramientas para evaluar pruebas, predecir riesgos o incluso redactar borradores de sentencias y resoluciones judiciales aplicando Derecho. Ser de alto riesgo implica el cumplimiento de toda una serie de garantías para lograr una “evaluación de conformidad”: evaluación de riesgos, calidad y gobernanza de datos, exactitud, precisión, documentación técnica, transparencia, generación de registros, supervisión humana o ciberseguridad.
Ahora bien, aunque pueda llamar la atención, el Considerando 63 del RIA es claro al advertir que el RIA no constituye un fundamento jurídico para permitir su uso, salvo que así lo dispongan expresamente las leyes de los Estados o la UE. Es decir, el RIA contempla la posibilidad de que se puedan utilizar por los estados estos sistemas, siempre que los estados lo regulen, y si es el caso obligatoriamente, tendrían que cumplir con todas las garantías y requisitos del RIA.
¿Cuáles son las deficiencias del Real Decreto-ley 6/2023?
El Real Decreto-ley 6/2023 regula el uso de la IA y sistemas automatizados en España. Es especialmente esta norma la que ha de brindar cobertura legal y regular también garantías específicas según exige la jurisprudencia del Tribunal Constitucional, en la línea de las exigencias de otras cortes europeas respecto del uso de sistemas automatizados.
Sin embargo, esta norma, pese a sus grandes avances es claramente insuficiente en este aspecto. El Decreto-ley menciona la orientación al dato y el uso de IA al respecto, las actuaciones automatizadas, entre ellas las llamadas “actuaciones proactivas” y también las “actuaciones asistidas” (borradores inteligentes de cualquier tipo de actuación para ser validados por el juez, fiscal o letrado), así como requisitos comunes a todas ellas. Sin embargo, se trata de un conjunto de menciones genéricas que ni de lejos alcanzan los estándares de una regulación de calidad que afecta a los derechos fundamentales. Tanto es así que el CGPJ lo considera como una habilitación en blanco y en términos “crípticos”
¿Cuáles son las garantías necesarias para un uso adecuado de la IA?
Una de las cuestiones más delicadas en el uso de la IA en el ámbito jurisdiccional es la necesidad de contar con suficientes garantías legales. No es suficiente con las disposiciones generales del RIA; se requiere una regulación específica que detalle las garantías concretas que deben aplicarse en cada caso, adecuándose al nivel de densidad normativa y de intensidad variable de las exigencias procesales en los diferentes tipos de procedimiento jurisdiccional y el caso de uso específico del que se trate.
Es en cada contexto concreto donde deben modularse y regularse -con un mínimo legal- las referida garantías del RIA así como los bancos de datos a utilizar, auditorías, sujetos, unidades, órganos responsables y encargados, método de procesamiento, usos de los datos de salida, tiempos de uso y de conservación, destrucción seudonimización y otras garantías técnicas y operativas, posibilidades de contratación, subcontratación y desarrollos propios, necesidades de resoluciones o actos de validación o implementación, información y transparencia básica y un largo etcétera de requerimientos. De igual modo, siguiendo el modelo de la regulación valenciana, hay que apostar por un registro de algoritmos judiciales. La estandarización que ha hecho el Comité Técnico Estatal de la Administración Judicial Electrónica el 21 de junio de 2024 para el uso de inteligencia artificial por la justicia, por positiva que sea, no cubre los espacios que deben ser regulados por norma con rango de ley.
Fuente: Imagen generada por Walle
¿Es posible mejorar la legislación actual?
El Real Decreto-ley 6/2023, aunque introduce algunos avances, es claramente insuficiente. Las menciones al uso de algoritmos y sistemas automatizados son demasiado generales, y la habilitación legal es ambigua. El artículo 35 del decreto, por ejemplo, menciona la “orientación al dato” y la aplicación de técnicas de IA, pero no define de manera precisa las condiciones en las que se puede usar la IA para apoyar la función jurisdiccional.
El proyecto de ley que pretende ampliar estas disposiciones también carece de la claridad necesaria. Aunque se mencionan propuestas como el uso de la IA para la anonimización de documentos judiciales o la extracción de indicadores de vulnerabilidad social, la normativa sigue siendo vaga. Se necesita una mayor densidad normativa que especifique con detalle cómo, cuándo y para qué se pueden utilizar estos sistemas, así como las garantías que deben acompañar cada uso.
¿Qué implicaciones tiene el uso de IA en las decisiones judiciales?
Uno de los aspectos más controvertidos es el uso de IA para redactar borradores de resoluciones judiciales. Aunque estos borradores deben ser revisados y validados por un juez humano, la influencia de la IA en la decisión final puede ser significativa. Esto plantea dudas sobre la exclusividad jurisdiccional de los jueces y el derecho de los ciudadanos a que su caso sea resuelto por un ser humano.
El RIA clasifica los sistemas que influyen en la toma de decisiones judiciales como de “alto riesgo”, lo que implica que se deben aplicar todas las garantías del reglamento europeo. Además, el artículo 22 del Reglamento General de Protección de Datos (RGPD) establece que los ciudadanos tienen derecho a no ser sometidos a decisiones automatizadas sin intervención humana. Aunque en el caso de los borradores hay una revisión humana, se necesita más claridad sobre cómo se implementarán estas garantías.
¿Qué nos depara el futuro de la IA en la justicia?
A pesar de los desafíos, es innegable que la IA tiene el potencial de transformar el sistema judicial. Sin embargo, su implementación debe hacerse de manera cuidadosa y respetando los principios fundamentales del Estado de Derecho. El uso de la inteligencia artificial en la justicia no es una opción, sino una oportunidad y una necesidad para asegurar una justicia más rápida, eficiente y accesible. Pero con garantías.
En España, la Autoridad Española de Supervisión de la Inteligencia Artificial (AESIA) no tiene ni de lejos la independencia suficiente para cumplir con esta función. La Agencia Española de Protección de Datos (AEPD) sí, pero no tiene la competencia para controlar al Poder Judicial, solo el Consejo General del Poder Judicial (CGPJ) tiene la independencia y la posición constitucional necesarios para supervisar los sistemas de IA utilizados en la justicia, al menos los de uso propiamente jurisdiccional. Así lo sostuve en el trabajo reseñado y así lo ha afirmado recientemente el CGPJ en junio de 2024. En España, ni la Agencia Española de Protección de Datos (AEPD) ni la Autoridad Española de Supervisión de la Inteligencia Artificial (AESIA) tienen la independencia suficiente para cumplir con esta función.
Así pues, hay que apostar por una mejor regulación y habilitación del uso jurisdiccional de la IA en justicia, con las garantías suficientes. Todo ello bajo un deber de uso de inteligencia artificial del poder público para mejorar la eficacia de los derechos que vengo sosteniendo desde hace años.
Catedrático de Derecho Constitucional de la Universitat de Valencia (4 sexenios Aneca), Magistrado del TSJ Comunidad Valenciana 2000-2019, vocal Consejo de Transparencia C. Valenciana desde 2015. Doctor y licenciado en Derecho (U. Valencia), Máster en Derechos Fundamentales (ESADE, Barcelona), Licenciado y Diplomado de Estudios Avanzados de Ciencias políticas (UNED). Director de privacidad y derechos de OdiseIA. www.cotino.es