La inteligencia artificial en la lucha contra la corrupción y el fraude
Oscar Capdeferro Villagrasa
Profesor Lector de Derecho Administrativo (Universidad de Barcelona)
1 - La inteligencia artificial como herramienta para la detección de incumplimientos normativos
En el sector público, una de las funciones que más se ha transformado con la irrupción de las nuevas tecnologías y la inteligencia artificial (especialmente, con minería de datos o data mining) ha sido la del control del cumplimiento normativo. Y, de entre todos los incumplimientos normativos, han sido el fraude y la corrupción los que posiblemente hayan merecido mayor atención.
En efecto, se han desarrollado un número significativo de sistemas informáticos antifraude y anticorrupción, empleados por los órganos inspectores y de control, destinados al análisis de grandes cantidades de datos para facilitar la detección de irregularidades y para orientar las subsiguientes actuaciones de gestión de riesgos o de inspección y sanción correspondientes.
A través de noticias y notas de prensa, se ha podido conocer, por ejemplo, el significativo caso de la herramienta RAVN, empleada por la Serious Fraud Office de Reino Unido y que fue considerada una herramienta fundamental para investigar el complejo caso de corrupción de Rolls-Royce. La eficiencia de estas herramientas queda claramente ilustrada en ese caso: el equipo humano de investigadores, antes de empezar a emplear el sistema RAVN, tan solo había podido analizar 3.000 documentos. Sin embargo, con el sistema informático, se pudieron analizar, diariamente, unos 600.000 documentos.
Otras noticias, más recientes, apuntan a que, en el momento actual, y en el futuro más inmediato, la inteligencia artificial antifraude es, sin duda, un campo de particular interés para el sector público.
2- La inteligencia artificial contra el fraude
El fraude es una de las principales formas de incumplimiento normativo, generalmente con perjuicios graves para los intereses públicos. Esta irregularidad implica un engaño intencionado, generalmente con ocultamiento o alteración de información, con elaboración de declaraciones o documentos falsos, inexactos o incompletos. El fraude ha sido, sobre todo, combatido en el ámbito tributario y en el ámbito laboral y de la Seguridad Social, a efectos de prevenir o, en su caso, detectar conductas como el incumplimiento de las obligaciones tributarias o el beneficio de deducciones o prestaciones de forma indebida.
El fraude en los ámbitos tributario y laboral más grave es sancionado penalmente, a través del Título XIV del Código Penal (arts. 305 y ss.). Otros fraudes más leves reciben, por su parte, sanción a nivel administrativo, tal y como se puede apreciar, por ejemplo, en los arts. 7.2 y 13.14 del Real Decreto Legislativo 5/2000, de 4 de agosto, por el que se aprueba el texto refundido de la Ley sobre Infracciones y Sanciones en el Orden Social. Además, el fraude se puede tener en cuenta como circunstancia para la graduación de las sanciones, como sucede en materia de sanciones administrativas laborales (art. 39.2 Real Decreto Legislativo 5/2000).
Tanto la administración tributaria como la laboral y de la Seguridad Social cuentan con herramientas digitales que automatizan procedimientos y que, cruzando datos, permiten detectar fraudes o, cuanto menos, posibles discrepancias. En particular, desde el año 2015, la Dirección General de la ITSS cuenta con una herramienta informática, basada en inteligencia artificial (minería de datos), para detectar de forma rápida el fraude. Se denomina «Herramienta de Lucha contra el Fraude», y se puede encontrar información al respecto en diferentes publicaciones, como por ejemplo en el Plan Estratégico de la Inspección de Trabajo y Seguridad Social o en las memorias de la Inspección.
Por su parte, entre otro sistemas, se puede destacar uno de la administración tributaria empleado en la gestión del IVA, gracias al cual se comprueban de forma automatizada las autoliquidaciones presentadas por los contribuyentes, a efectos de detectar posibles incidencias, como la discrepancia entre los datos incluidos en la autoliquidación y los otros datos disponibles con los que cuenta la Agencia Tributaria.
3 - La inteligencia artificial contra la corrupción
En segundo lugar, también se emplea la inteligencia artificial, particularmente mediante minería de datos, para la prevención y detección de la corrupción. Cuando hablamos de corrupción, por lo general, nos referimos a situaciones en que una persona que ostenta un cargo público o que ejerce una función pública se aprovecha de dicho cargo o función para obtener algún tipo de beneficio privado indebido. Así, existen herramientas con capacidad para, por ejemplo, detectar conflictos de intereses en los expedientes administrativos, o para localizar situaciones de riesgo cuando, por ejemplo, identifican que en un expediente administrativo está participando una persona que fue anteriormente condenada por un caso de corrupción (por ejemplo, por aceptar o proponer el pago de un soborno).
Un reconocido ejemplo es el programa Arachne, desarrollado por la Comisión Europea y que hasta la fecha se ofrece gratuitamente a las autoridades nacionales de los Estados miembros que gestionan fondos europeos y que manifiestan su interés en el programa. Este programa se desarrolló para dar cumplimiento a lo establecido por el Reglamento (UE) n. 1303/2013 del Parlamento Europeo y del Consejo de 17 de diciembre de 2013, donde se establece la obligación para las autoridades de gestión de los Estados Miembros de «aplicar medidas antifraude eficaces y proporcionadas, teniendo en cuenta los riesgos detectados» (art. 125.4.c del Reglamento). Este programa basado en inteligencia artificial analiza los riesgos de irregularidades en los expedientes de gestión de dichos fondos, entre los que se incluye la detección de posibles conflictos de intereses y la existencia de irregularidades previas de los sujetos participantes (como la condena por casos de corrupción), y facilita semanalmente un índice de riesgo que señalaría la posibilidad de que haya irregularidades en dichos expedientes.
Merece especial atención, como ejemplo, el sistema de alertas rápidas de la Inspección General de Servicios de la Generalitat Valenciana. Se trata de un sistema centrado en la detección de alertas, en el señalamiento temprano (esto es, mientras el correspondiente expediente administrativo todavía se encuentra abierto) de indicadores o indicios de irregularidad. Este sistema se aprobó mediante ley autonómica en 2018 (Ley 22/2018), y se puso en funcionamiento en febrero de 2019 para los expedientes de contratación pública, subvenciones y caja fija.
El sistema está diseñado para comunicar al cuerpo de inspectores de la Inspección General de Servicios las alertas detectadas, y es este cuerpo de inspectores el que debe analizarlas y darles el cauce que corresponda, dentro de las posibilidades previstas por la propia ley (art. 31 Ley valenciana 22/2018). Ya se han publicado los primeros resultados del funcionamiento de la herramienta y, aunque se han detectado carencias (por ejemplo, por las limitaciones de los datos contenidos en algunas bases de datos empleadas), también se ha podido apreciar el potencial de la herramienta para detectar irregularidades.
Es destacable, también, que este sistema de alertas valenciano se acompaña de un régimen sancionador, previsto en su propia ley de creación (arts. 41 y 42 Ley 22/2018), para garantizar el correcto funcionamiento y uso del sistema. Así, por ejemplo, entre otras, constituye una infracción grave la “no incorporación o alteración de la información destinada al sistema de alertas cuando se aprecie intencionalidad de obstruir el normal funcionamiento del mismo”.
Por último, creo relevante señalar que no todas las iniciativas de inteligencia artificial para el control de la buena administración y el buen gobierno están reservadas para el uso interno de la administración. En esta línea, se puede citar una de las primeras iniciativas en la materia, el programa Red Flags. Se trata de un proyecto financiado por la Comisión Europea en el marco de su programa de prevención y lucha contra el crimen y desarrollado por Transparency International Hungría, K-Monitor y PetaByte para el control de la contratación pública en Hungría. Dicha herramienta analiza automáticamente los procedimientos de contratación pública y, mediante un algoritmo, identifica aquellos que están sujetos a mayor riesgo de corrupción. Para ello, el sistema cuenta con un conjunto de indicios o alertas preestablecidas y clasificadas en función del nivel de gravedad o de su probabilidad de alertar sobre un caso real de corrupción. Este sistema permite la consulta de dicha información a la ciudadanía y a los mismos empleados públicos.
4 - Algunas cuestiones jurídicas problemáticas sobre estos sistemas
Como se ha podido apreciar mediante los ejemplos señalados, los sistemas inteligentes antifraude y anticorrupción son herramientas con un elevado grado de automatización que operan sobre los datos analizados y generan un resultado (un índice de riesgo de irregularidad o un listado de indicadores o alertas detectados, o incluso una resolución señalando alguna posible irregularidad) respecto de los expedientes analizados. Sin embargo, surgen una serie de dudas sobre estos sistemas: ¿se podría impugnar el resultado proporcionado por el sistema?, ¿se puede acceder al algoritmo o a la información sobre el funcionamiento del sistema?, ¿se tienen que probar mediante ley?, ¿su intromisión en la privacidad es proporcional?
4.1- ¿Estos sistemas generan actos administrativos impugnables?
Un primer punto problemático es la categorización jurídica de la intervención de estos sistemas, ya que, en función de cuál sea su naturaleza jurídica, los posibles derechos de las personas afectadas serían distintos. Por ejemplo, ¿se podría presentar un recurso contra el resultado de la aplicación de este programa si se cree que una irregularidad se ha detectado haciendo un uso abusivo o discriminatorio del programa?
Lo cierto es que, en este punto, no puede haber una respuesta única ya que dependerá de las características del sistema o programa y de si este elabora o no, por ejemplo, resoluciones administrativas plenamente automatizadas.
Por ejemplo, en el caso de herramientas que se limitan a comunicar un informe de alertas a un cuerpo de inspectores (como en el caso del sistema de alertas), parecería que estamos en el ámbito de las meras actuaciones previas (art. 55 Ley 39/2015), no impugnables directamente y elaboradas con carácter previo al inicio de un procedimiento administrativo (de inspección o, en su caso, sancionador). Salvo que sean expresamente incluidas, estas actuaciones previas no formarán parte del posterior procedimiento sancionador (STC 272/2006, de 25 de septiembre), y en caso de querer utilizar la información generada por el programa inteligente en un procedimiento sancionador, será necesario someter la información producida por el sistema a todas las garantías del procedimiento sancionador, de tal forma que se evite cualquier tipo de indefensión.
Sin embargo, si pensamos en otros sistemas que son capaces de automatizar procedimientos administrativos completos, como algunos empleados por la Agencia Tributaria, sin duda estaríamos ante un caso de emisión de una resolución que se notifica a la persona interesada, y que por lo tanto es directamente impugnable ante el órgano administrativo que corresponda (art. 41.2 Ley 40/2015).
4.2- ¿Estos sistemas son transparentes? ¿Se pueden conocer las características del programa?
Los algoritmos son información pública, así como sus características y funcionamiento. Sin embargo, se trata de una información pública que fácilmente puede ser objeto de restricciones para su libre publicación y acceso. Además del límite general que se podría atribuir a todos los sistemas informáticos, consistente en la protección de la propiedad intelectual e industrial (art. 14.1.j Ley 19/2013), en los casos de los sistemas antifraude y anticorrupción, que son, en general, sistemas para prevenir y detectar prácticas ilícitas, existiría un límite adicional, previsto en el art. 14.1.e Ley 19/2013, según el cual se puede limitar el derecho de acceso cuando suponga un perjuicio para la “prevención, investigación y sanción de los ilícitos penales, administrativos o disciplinarios”. En efecto, es frecuente reservar la información sobre estos sistemas alegando que el conocimiento de los detalles del sistema permitiría a los posibles infractores eludir el sistema de control y ocultar al programa las irregularidades.
4.3- ¿Es necesario aprobar estos sistemas mediante ley o es suficiente con publicar su existencia a través de una resolución de la administración?
Dependerá, de nuevo, de lo que se quiera aprobar. En este punto, me parece una buena práctica que este tipo de sistemas se aprueben junto con un conjunto de medidas complementarias que sirvan para otorgar garantías del correcto funcionamiento del programa, como podría ser un régimen sancionador para asegurar el buen funcionamiento del programa y para evitar que se hagan usos abusivos o ilícitos del mismo. Por ejemplo, el sistema de alertas valenciano antes citado incorpora un régimen sancionador, tal y como se ha expuesto.
En casos así, por supuesto, el ordenamiento jurídico impone obligaciones formales, y se requiere que sea una norma con rango de ley la que reconozca la potestad sancionadora de la administración (art. 25 Ley 40/2015 y art. 25 Constitución Española).
4.4- ¿Es proporcional emplear estos sistemas para luchar contra el fraude y la corrupción?
Con el legítimo fin de luchar contra el fraude y la corrupción, algunos de estos programas pueden acceder a datos personales (véase, por ejemplo, la posibilidad de acceso a datos personales del sistema de alertas valenciano, art. 17.3 de la Ley valenciana 22/2018). En este punto, la pregunta que se puede formular es, en efecto, si la intromisión en la privacidad guarda una relación de proporcionalidad adecuada.
El ejemplo más claro lo ofrece la sentencia del Tribunal de Distrito de La Haya (Países Bajos) sobre el sistema SyRI, de 5 de febrero de 2020, en la que se declara que un instrumento administrativo de cálculo de índice de riesgo de incumplimiento o irregularidad por parte de los ciudadanos empleado en varios servicios (como en determinadas prestaciones públicas o en ámbito tributario) contraviene el art. 8.2 del Convenio Europeo de Derechos Humanos (derecho al respeto de la vida privada y familiar).
En particular, en este caso, desde 2014 el gobierno holandés contaba con la herramienta informática SyRI (Systeem Risico Indicatie), un programa informático basado en inteligencia artificial cuya finalidad era prevenir y combatir el fraude respecto de los fondos públicos en materia tributaria y de seguridad social. De acuerdo con los demandantes, el programa operaba violando derechos humanos y fundamentales recogidos en varios instrumentos internacionales europeos referentes a la protección de la vida privada. Para el gobierno, la norma de aprobación del programa contenía garantías suficientes de protección de la privacidad. Sin embargo, el tribunal termina considerándolo incompatible con el art. 8.2 del Convenio Europeo de Derechos Humanos, en tanto que su impacto en la privacidad no guarda una relación de proporcionalidad adecuada con el beneficio que se deriva del empleo del programa.
Entre otras muchas cuestiones, en la sentencia se destaca que la finalidad del programa es legítima, pero que la opacidad del programa no se ve compensada con medidas suficientes de garantía. En particular, el hecho de que no se comuniquen los indicadores y el modelo de riesgo empleado, y que no se pueda verificar el funcionamiento del programa, impide saber si se está accediendo a la cantidad mínima de datos necesarios para operar con sus indicadores y detectar las alertas programadas, y también impide saber si el programa está generando, con su aplicación, discriminación o estigmatización, atribuyendo de modo sesgado niveles de riesgo desproporcionados.
Cabría concluir, por tanto, que estos sistemas deberían ofrecer un mínimo de información detallada sobre qué detectan y en base a qué datos (para comprobar que se acceda a la cantidad mínima posible de datos), y deberían prever en todo caso mecanismos de evaluación independientes sobre el funcionamiento del programa.

Doctor en Derecho. Su producción académica se ha centrado principalmente en el estudio de la corrupción pública y de la inteligencia artificial del sector público, materias sobre las que ha publicado numerosas obras. En la actualidad participa en el proyecto de investigación «Retos jurídicos del uso de datos masivos para el fomento de la innovación y la buena administración a través de la inteligencia artificial», Programa Estatal de I+D+i Orientada a los Retos de la Sociedad (DER2017-85595-R).