La intel·ligència artificial en la lluita contra la corrupció i el frau
Oscar Capdeferro Villagrasa
Professor Lector de Dret Administratiu (Universitat de Barcelona)
1 - La intel·ligència artificial com a eina per a la detecció d'incompliments normatius
En el sector públic, una de les funcions que més s'ha transformat amb la irrupció de les noves tecnologies i la intel·ligència artificial (especialment, amb mineria de dades o data mining) ha sigut la del control del compliment normatiu. I, d'entre tots els incompliments normatius, han sigut el frau i la corrupció els que possiblement han merescut major atenció.
En efecte, s'han desenvolupat un nombre significatiu de sistemes informàtics antifrau i anticorrupció, emprats pels òrgans inspectors i de control, destinats a l'anàlisi de grans quantitats de dades per a facilitar la detecció d'irregularitats i per a orientar les subsegüents actuacions de gestió de riscos o d'inspecció i sanció corresponents.
A través de notícies i notes de premsa, s'ha pogut conéixer, per exemple, el significatiu cas de l'eina RAVN, empleada per la Serious Fraud Office de Regne Unit i que va ser considerada una eina fonamental per a investigar el complex cas de corrupció de Rolls-Royce. L'eficiència d'aquestes eines queda clarament il·lustrada en aqueix cas: l'equip humà d'investigadors, abans de començar a emprar el sistema RAVN, tan sols havia pogut analitzar 3.000 documents. No obstant això, amb el sistema informàtic, es van poder analitzar, diàriament, uns 600.000 documents.
Altres notícies, més recents, apunten al fet que, en el moment actual, i en el futur més immediat, la intel·ligència artificial antifrau és, sens dubte, un camp de particular interés per al sector públic.
2- La intel·ligència artificial contra el frau
El frau és una de les principals formes d'incompliment normatiu, generalment amb perjudicis greus per als interessos públics. Aquesta irregularitat implica un engany intencionat, generalment amb ocultació o alteració d'informació, amb elaboració de declaracions o documents falsos, inexactes o incomplets. El frau ha sigut, sobretot, combatut en l'àmbit tributari i en l'àmbit laboral i de la Seguretat Social, a l'efecte de previndre o, en el seu cas, detectar conductes com l'incompliment de les obligacions tributàries o el benefici de deduccions o prestacions de manera indeguda.
El frau en els àmbits tributari i laboral més greu és sancionat penalment, a través del Títol XIV del Codi Penal (arts. 305 et seq.). Altres fraus més lleus reben, per part seua, sanció a nivell administratiu, tal com es pot apreciar, per exemple, en els arts. 7.2 i 13.14 del Reial decret legislatiu 5/2000, de 4 d'agost, pel qual s'aprova el text refós de la Llei sobre Infraccions i Sancions en l'Ordre Social. A més, el frau es pot tindre en compte com a circumstància per a la graduació de les sancions, com succeeix en matèria de sancions administratives laborals (art. 39.2 Reial decret legislatiu 5/2000).
Tant l'administració tributària com la laboral i de la Seguretat Social compten amb eines digitals que automatitzen procediments i que, creuant dades, permeten detectar fraus o, com menys, possibles discrepàncies. En particular, des de l'any 2015, la Direcció General de la ITSS compta amb una eina informàtica, basada en intel·ligència artificial (mineria de dades), per a detectar de manera ràpida el frau. Es denomina «Eina de Lluita contra el Frau», i es pot trobar informació sobre aquest tema en diferents publicacions, com per exemple en el Pla Estratègic de la Inspecció de Treball i Seguretat Social o en les memòries de la Inspecció.
Per part seua, entre un altre sistemes, es pot destacar un de l'administració tributària emprat en la gestió de l'IVA, gràcies al qual es comproven de forma automatitzada les autoliquidacions presentades pels contribuents, a l'efecte de detectar possibles incidències, com la discrepància entre les dades incloses en l'autoliquidació i les altres dades disponibles amb els quals compta l'Agència Tributària.
3 - La intel·ligència artificial contra la corrupció
En segon lloc, també s'empra la intel·ligència artificial, particularment mitjançant mineria de dades, per a la prevenció i detecció de la corrupció. Quan parlem de corrupció, en general, ens referim a situacions en què una persona que ostenta un càrrec públic o que exerceix una funció pública s'aprofita d'aquest càrrec o funció per a obtindre algun tipus de benefici privat indegut. Així, existeixen eines amb capacitat per a, per exemple, detectar conflictes d'interessos en els expedients administratius, o per a localitzar situacions de risc quan, per exemple, identifiquen que en un expedient administratiu està participant una persona que va ser anteriorment condemnada per un cas de corrupció (per exemple, per acceptar o proposar el pagament d'un suborn).
Un reconegut exemple és el programa Arachne, desenvolupat per la Comissió Europea i que fins avui s'ofereix gratuïtament a les autoritats nacionals dels Estats membres que gestionen fons europeus i que manifesten el seu interés en el programa. Aquest programa es va desenvolupar per a donar compliment al que s'estableix pel Reglament (UE) n. 1303/2013 del Parlament Europeu i del Consell de 17 de desembre de 2013, on s'estableix l'obligació per a les autoritats de gestió dels Estats membres de «aplicar mesures antifrau eficaces i proporcionades, tenint en compte els riscos detectats» (art. 125.4.c del Reglament). Aquest programa basat en intel·ligència artificial analitza els riscos d'irregularitats en els expedients de gestió d'aquests fons, entre els quals s'inclou la detecció de possibles conflictes d'interessos i l'existència d'irregularitats prèvies dels subjectes participants (com la condemna per casos de corrupció), i facilita setmanalment un índex de risc que assenyalaria la possibilitat que hi haja irregularitats en aquests expedients.
Mereix especial atenció, com a exemple, el sistema d'alertes ràpides de la Inspecció General de Serveis de la Generalitat Valenciana. Es tracta d'un sistema centrat en la detecció d'alertes, en l'assenyalament primerenc (això és, mentre el corresponent expedient administratiu encara es troba obert) d'indicadors o indicis d'irregularitat. Aquest sistema es va aprovar mitjançant llei autonòmica en 2018 (Llei 22/2018), i es va posar en funcionament al febrer de 2019 per als expedients de contractació pública, subvencions i caixa fixa.
El sistema està dissenyat per a comunicar al cos d'inspectors de la Inspecció General de Serveis les alertes detectades, i és aquest cos d'inspectors el que ha d'analitzar-los i donar-los el camí que corresponga, dins de les possibilitats previstes per la pròpia llei (art. 31 Llei valenciana 22/2018). Ja s'han publicat els primers resultats del funcionament de l'eina i, encara que s'han detectat mancances (com ara, per les limitacions de les dades contingudes en algunes bases de dades emprades), també s'ha pogut apreciar el potencial de l'eina per a detectar irregularitats.
És destacable, també, que aquest sistema d'alertes valencià s'acompanya d'un règim sancionador, previst en la seua pròpia llei de creació (arts. 41 i 42 Llei 22/2018), per a garantir el correcte funcionament i ús del sistema. Així, per exemple, entre altres, constitueix una infracció greu la “no incorporació o alteració de la informació destinada al sistema d'alertes quan s'aprecie intencionalitat d'obstruir el normal funcionament d'aquest”.
Finalment, crec rellevant assenyalar que no totes les iniciatives d'intel·ligència artificial per al control de la bona administració i el bon govern estan reservades per a l'ús intern de l'administració. En aquesta línia, es pot citar una de les primeres iniciatives en la matèria, el programa Red Flags. Es tracta d'un projecte finançat per la Comissió Europea en el marc del seu programa de prevenció i lluita contra el crim i desenvolupat per Transparency International Hongria, K-Monitor i PetaByte per al control de la contractació pública a Hongria. Aquesta eina analitza automàticament els procediments de contractació pública i, mitjançant un algorisme, identifica aquells que estan subjectes a major risc de corrupció. Per a això, el sistema compta amb un conjunt d'indicis o alertes preestablides i classificades en funció del nivell de gravetat o de la seua probabilitat d'alertar sobre un cas real de corrupció. Aquest sistema permet la consulta d'aquesta informació a la ciutadania i als mateixos empleats públics.
4 - Algunes qüestions jurídiques problemàtiques sobre aquests sistemes
Com s'ha pogut apreciar mitjançant els exemples assenyalats, els sistemes intel·ligents antifrau i anticorrupció són eines amb un elevat grau d'automatització que operen sobre les dades analitzades i generen un resultat (un índex de risc d'irregularitat o un llistat d'indicadors o alertes detectats, o fins i tot una resolució assenyalant alguna possible irregularitat) respecte dels expedients analitzats. No obstant això, sorgeixen una sèrie de dubtes sobre aquests sistemes: es podria impugnar el resultat proporcionat pel sistema?, es pot accedir a l'algorisme o a la informació sobre el funcionament del sistema?, s'han de provar mitjançant llei?, la seua intromissió en la privacitat és proporcional?
4.1- Aquests sistemes generen actes administratius impugnables?
Un primer punt problemàtic és la categorització jurídica de la intervenció d'aquests sistemes, ja que, en funció de quin siga la seua naturalesa jurídica, els possibles drets de les persones afectades serien diferents. Per exemple, es podria presentar un recurs contra el resultat de l'aplicació d'aquest programa si es creu que una irregularitat s'ha detectat fent un ús abusiu o discriminatori del programa?
La veritat és que, en aquest punt, no pot haver-hi una resposta única ja que dependrà de les característiques del sistema o programa i de si aquest elabora o no, per exemple, resolucions administratives plenament automatitzades.
Per exemple, en el cas d'eines que es limiten a comunicar un informe d'alertes a un cos d'inspectors (com en el cas del sistema d'alertes), semblaria que estem en l'àmbit de les meres actuacions prèvies (art. 55 Llei 39/2015), no impugnables directament i elaborades amb caràcter previ a l'inici d'un procediment administratiu (d'inspecció o, en el seu cas, sancionador). Tret que siguen expressament incloses, aquestes actuacions prèvies no formaran part del posterior procediment sancionador (STC 272/2006, de 25 de setembre), i en cas de voler utilitzar la informació generada pel programa intel·ligent en un procediment sancionador, serà necessari sotmetre la informació produïda pel sistema a totes les garanties del procediment sancionador, de tal forma que s'evite qualsevol tipus d'indefensió.
No obstant això, si pensem en altres sistemes que són capaços d'automatitzar procediments administratius complets, com alguns empleats per l'Agència Tributària, sens dubte estaríem davant un cas d'emissió d'una resolució que es notifica a la persona interessada, i que per tant és directament impugnable davant l'òrgan administratiu que corresponga (art. 41.2 Llei 40/2015).
4.2- Aquests sistemes són transparents? Es poden conéixer les característiques del programa?
Els algorismes són informació pública, així com les seues característiques i funcionament. No obstant això, es tracta d'una informació pública que fàcilment pot ser objecte de restriccions per a la seua lliure publicació i accés. A més del límit general que es podria atribuir a tots els sistemes informàtics, consistent en la protecció de la propietat intel·lectual i industrial (art. 14.1.j Llei 19/2013), en els casos dels sistemes antifrau i anticorrupció, que són, en general, sistemes per a previndre i detectar pràctiques il·lícites, existiria un límit addicional, previst en l'art. 14.1.e Llei 19/2013, segons el qual es pot limitar el dret d'accés quan supose un perjudici per a la “prevenció, investigació i sanció dels il·lícits penals, administratius o disciplinaris”. En efecte, és freqüent reservar la informació sobre aquests sistemes al·legant que el coneixement dels detalls del sistema permetria als possibles infractors eludir el sistema de control i ocultar al programa les irregularitats.
4.3- És necessari aprovar aquests sistemes mitjançant llei o és suficient amb publicar la seua existència a través d'una resolució de l'administració?
Dependrà, de nou, del que es vulga aprovar. En aquest punt, em sembla una bona pràctica que aquest tipus de sistemes s'aproven juntament amb un conjunt de mesures complementàries que servisquen per a atorgar garanties del correcte funcionament del programa, com podria ser un règim sancionador per a assegurar el bon funcionament del programa i per a evitar que es facen usos abusius o il·lícits d'aquest. Per exemple, el sistema d'alertes valencià abans citat incorpora un règim sancionador, tal com s'ha exposat.
En casos així, per descomptat, l'ordenament jurídic imposa obligacions formals, i es requereix que siga una norma amb rang de llei la que reconega la potestat sancionadora de l'administració (art. 25 Llei 40/2015 i art. 25 Constitució Espanyola).
4.4- És proporcional emprar aquests sistemes per a lluitar contra el frau i la corrupció?
Amb la legítima fi de lluitar contra el frau i la corrupció, alguns d'aquests programes poden accedir a dades personals (vegeu, per exemple, la possibilitat d'accés a dades personals del sistema d'alertes valencià, art. 17.3 de la Llei valenciana 22/2018). En aquest punt, la pregunta que es pot formular és, en efecte, si la intromissió en la privacitat guarda una relació de proporcionalitat adequada.
L'exemple més clar l'ofereix la sentència del Tribunal de Districte de la Haia (Països Baixos) sobre el sistema SyRI, de 5 de febrer de 2020, en la qual es declara que un instrument administratiu de càlcul d'índex de risc d'incompliment o irregularitat per part dels ciutadans emprat en diversos serveis (com en determinades prestacions públiques o en àmbit tributari) contravé l'art. 8.2 del Conveni Europeu de Drets Humans (dret a el respecte de la vida privada i familiar).
En particular, en aquest cas, des de 2014 el govern holandés comptava amb l'eina informàtica SyRI (Systeem Risico Indicatie), un programa informàtic basat en intel·ligència artificial la finalitat de la qual era previndre i combatre el frau respecte dels fons públics en matèria tributària i de seguretat social. D'acord amb els demandants, el programa operava violant drets humans i fonamentals recollits en diversos instruments internacionals europeus referents a la protecció de la vida privada. Per al govern, la norma d'aprovació del programa contenia garanties suficients de protecció de la privacitat. No obstant això, el tribunal acaba considerant-lo incompatible amb l'art. 8.2 del Conveni Europeu de Drets Humans, en tant que el seu impacte en la privacitat no guarda una relació de proporcionalitat adequada amb el benefici que es deriva de l'ús del programa.
Entre moltes altres qüestions, en la sentència es destaca que la finalitat del programa és legítima, però que l'opacitat del programa no es veu compensada amb mesures suficients de garantia. En particular, el fet que no es comuniquen els indicadors i el model de risc emprat, i que no es puga verificar el funcionament del programa, impedeix saber si s'està accedint a la quantitat mínima de dades necessàries per a operar amb els seus indicadors i detectar les alertes programades, i també impedeix saber si el programa està generant, amb la seua aplicació, discriminació o estigmatització, atribuint de manera esbiaixada nivells de risc desproporcionats.
Caldria concloure, per tant, que aquests sistemes haurien d'oferir un mínim d'informació detallada sobre què detecten i sobre la base de quines dades (per a comprovar que s'accedisca a la quantitat mínima possible de dades), i haurien de preveure en tot cas mecanismes d'avaluació independents sobre el funcionament del programa.

Doctor en Dret. La seua producció acadèmica s'ha centrat principalment en l'estudi de la corrupció pública i de la intel·ligència artificial del sector públic, matèries sobre les quals ha publicat nombroses obres. En l'actualitat participa en el projecte d'investigació «Reptes jurídics de l'ús de dades massives per al foment de la innovació i la bona administració a través de la intel·ligència artificial», Programa Estatal d'I+D+i Orientada als Reptes de la Societat (DER2017-85595-R).