Logo de la Universitat de València Logo Càtedra de Govern Obert, Participació i Open Data (PAGODA) Logo del portal

Garanties enfront de la fugida del Dret administratiu de l'ús d'intel·ligència artificial en el sector públic, Lorenzo Cotino

  • 15 d’octubre de 2020
 

Lorenzo Cotino Hueso
Catedràtic de Dret Constitucional Universitat de València).
Director de l'Observatori PAGODA (Transformació Digital Sector Públic).
Director Privacitat OdiseIA.




Usos i tipus d'intel·ligència artificial en el sector públic més o menys rellevants que requereixen aproximacions i règim jurídic i garanties diferents

L'ús d'intel·ligència artificial, algorisme, perfilats i sistemes automatitzats de tractament de big data i altres tecnologies disruptives connexes es perfila com un dels elements de la transformació digital del sector públic. Sobre el tema ens hem ocupat des de la Xarxa DAIA (Dret Administratiu de la Intel·ligència Artificial) des de 2019 així com en diversos estudis qui subscriu. Són diverses les garanties ja existents en el nostre Dret, així com les que sembla que es poden deduir dels drets fonamentals i principis en joc o les que es van perfilant. Com hem afirmat en les Conclusions de Toledo d'1 d'abril, “la prioritat hauria de centrar-se en l'establiment d'un procediment administratiu adient amb les garanties adequades, en el qual, juntament amb les garanties jurídiques ja existents i aplicables (protecció de dades, automatització de l'actuació administrativa…), es defineixin amb precisió aquelles altres que hagueren de tenir-se en compte.” (final 3a). Es va subratllar la importància “del control i la motivació de les decisions administratives” (final 5è) i que “la projecció del principi de transparència en les singularitats d'aquesta tecnologia adquireix una especial transcendència:

a) en el context del procediment d'aprovació de l'ús del corresponent algorisme,
b) en relació a les concretes decisions que s'adoptin
c) en els processos de control i revisió.” (Final 7a).

Com especialment assenyala Huergo (2020, 65), “ El concepte d'algorisme és massa ampli com perquè puga tenir sempre la mateixa naturalesa o règim jurídic”. No es poden tractar de manera uniforme realitats molt diferents entre si. L'anàlisi del règim jurídic i garanties dels usos de IA en el sector públic passa per una necessària taxonomia i tipificació concreta.
Això ha de ser en la línia del Llibre blanc sobre la Intel·ligència Artificial de febrer 2020. El concret ús i especificacions particulars han de portar a qualificar els riscos i els impactes i afeccions concretes dels drets en joc. Segons el nivell de risc que es determini hauran d'especificar-se les garanties adequades i, en el seu cas, haurà de regular-se un procediment d'aprovació prèvia de la tecnologia, com acaba d'assenyalar el Parlament Europeu a l'octubre 2020, un “certificat europeu de conformitat ètica”.
Així, cada funció, tipologia i ús serà el que determine el règim jurídic adequat. Des de la Xarxa DAIA hem assenyalat que “més enllà de la conveniència de comptar amb un concepte legalment definit sobre què entenem per Intel·ligència Artificial, allò realment important és delimitar les concretes funcions i usos d'aquesta, en general, i dels sistemes emprats, en particular –deterministes, predictius, prescriptius, amb aprenentatge supervisat o no, etc.– en l'àmbit del sector públic, establint les garanties jurídiques adequades en funció del seu abast.”
En alguns supòsits l'ús de l'algorisme, com assenyala Huergo (2020, 66 i 75) és “un poc més” i requereix l'autorització, al seu judici, d'una norma (i l'aplicació, per descomptat, de totes les garanties aplicables a les normes). I això es donaria especialment respecte dels algorismes predictius. En aquest cas l'algorisme sí que influeix sobre el contingut de l'acció administrativa encara que no sempre de manera determinant. Afegeix un contingut “d'elaboració pròpia”.

https://unsplash.com/photos/466ENaLuhLY

Tipologia i usos de la intel·ligència artificial i la seva variable rellevància i impacte jurídics

L'anàlisi i mapatge més important que s'ha realitzat fins a la data de l'ús de la IA en el sector públic a partir de 230 experiències en diferents països de la UE parteix de la tipologia de les solucions d'IA que s'estan utilitzant, com en el propòsit per al qual van ser desplegades.
Així, es fa referència a diverses categories els usos d'IA públics

  • IA per a l'aplicació de la llei, que inclouria identificar o prioritzar els objectius que requereixen aplicació o inspeccions.
  • La recerca, anàlisi i vigilància reglamentaris, bàsicament es fa referència als processos d'elaboració de polítiques, com la recopilació, la supervisió i l'anàlisi de dades per a augmentar la capacitat de presa de decisions dels responsables de l'elaboració de polítiques i fer que es basin més en les proves.
  • La IA per a l'adjudicació i concessió de beneficis o el dret dels ciutadans.
  • la IA per a donar suport a la prestació de serveis als ciutadans i les empreses o per a facilitar la comunicació amb el públic en general i la seva participació.
  • Finalment, el cinquè ús seria la Gestió de l'organització interna, com els recursos humans, les adquisicions, els sistemes de TIC o altres serveis públics.

A priori, i mancant el detall concret de quin i com s'utilitzen les tecnologies i amb quins efectes, la rellevància, repercussió jurídica i el possible impacte en l'esfera de drets i interessos en l'individu no són els mateixos en aquests usos genèrics. Molt difícilment tals decisions tindran una repercussió o impacte individualitzable que facilite la seva fiscalització jurídica. No obstant això, el seu impacte col·lectiu o social sí que és molt rellevant. No en va, la mobilització i destinació de recursos econòmics, administratius, prestacionals i personals poden quedar determinats per aquests usos algorítmics. És per això que encara que no s'apliquen les garanties concretes que puguen derivar-se de drets en joc, considere que la regulació haurà de majoris garanties i règim jurídic a aquests usos més genèrics,. Han de donar-se a conèixer aquests sistemes, les dades que manegen i els elements de suficient qualitat dels mateixos i dels tractaments que s'efectuen. Ha d'incloure's als col·lectius de les societat civil en òrgans i posicions jurídiques qualificades que els permeten conèixer més de prop aquests tractaments massius de dades i accedir al coneixement que s'extreu d'aquests. No cal excloure la regulació d'estudis d'impacte social o col·lectiu en els quals s'aborde l'impacte no sols en drets subjectius concrets sota una perspectiva individual, sinó de l'impacte col·lectiu ja sigui en drets (igualtat, educació, salut, medi ambient, etc.) com en interessos públics col·lectius (principi democràtic, justícia, competència, progressivitat fiscal, etc.)
També a priori, l'ús d'intel·ligència artificial com chatbots per a facilitar la comunicació i informació, no té per què revestir rellevància jurídica. Com succeeix amb sistemes d'atenció a la ciutadania, es tracta d'actuacions en general extraprocedimentales. No cal excloure per això la necessitat d'una bona supervisió dels mateixos mentre una mala informació generalitzada o massiva pot produir disfuncions i fins i tot danys també massius.
L'ús de la intel·ligència artificial per a la millora de la gestió interna de l'Administració pot ser molt variat, i per això pot arribar a tenir també variats efectes respecte dels tercers i en el seu cas pot quedar més connectat a actuacions formals de l'Administració.  No obstant això, en principi es tracta també d'un ús en principi de menor impacte i, en conseqüència, de menors necessitats de monitoratge i seguiment.
No succeeix el mateix respecte dels usos d'intel·ligència artificial 1 (aplicació de la llei) i 3 (adjudicació i concessió de beneficis o el dret). Sense perjudici dels detalls concrets, a priori aquests usos generen més impactes i possiblement més individualitzables en els drets i interessos, no sols de manera col·lectiva. Així, es pot obtenir o no en raó de la intel·ligència artificial una subvenció, una ajuda, un contracte, etc. D'igual manera, la IA pot estar excloent  a persones de ser investigats i sancionats per la il·legalitat o determinant a qui si que procedeix investigar.
A més d'aquests cinc usos, des de la UE s'han definit diverses tipologies de la IA en els serveis públics (2.1.1).

  • Anàlisi predictiva, simulació i visualització de dades. Aquestes solucions d'IA aprenen dels grans conjunts de dades per a identificar patrons en les dades que, en conseqüència, s'utilitzen per a visualitzar, simular o predir noves configuracions.
  • Els Sistemes experts i basats en regles, presa de decisions algorítmiques, els mateixos es dissenyen per a facilitar o automatitzar plenament els processos de presa de decisions de possible rellevància.
  • Els usos d'IA  públic per a la gestió del coneixement (crear una col·lecció de descripcions de casos, textos i altres coneixements), perquè poden ser un suport important a l'activitat pública.
  • Reconeixement d'àudio, de vídeo i de processament de llenguatge natural. Així succeeix amb els usos d'IA per a detectar i reconèixer el so, la música i altres entrades d'àudio, incloent la parla, permetent així el reconeixement de les veus i la transcripció.
  • També, el Processament del Llenguatge Natural, Mineria de Textos i Anàlisis de la Parla: Aquestes aplicacions d'IA són capaces de reconèixer i analitzar la parla, el text escrit i la comunicació. I, també, l'ús de IA per a visió per ordinador i reconeixement d'identitat.
  • Precisament els més empleats, com són els chatbots, assistents digitals intel·ligents, agents virtuals i sistemes de recomanació que faciliten assessorament genèric i recomanacions relacionades.
  • Els usos de IA per a la robòtica cognitiva, automatització de processos i vehicles connectats i automatitzats.
  • IA públic  és el seu ús per a anàlisi de seguretat i intel·ligència d'amenaces.

D'aquesta tipologia no és fàcil extreure conseqüències respecte dels usos que puguin tenir més rellevància jurídica  i la qüestió es farà dependre del possible impacte que puga haver-hi en persones més o menys identificables o en drets concrets (per exemple, reconeixement d'imatges, so, etc.) i sobretot la finalitat concreta en la qual s'integri l'ús de la IA.
A partir de 230 experiències en diferents països de la UE, ara com ara  l'ús de "chatbots" o assistents digitals és la més habitual i, segons l'exposat tindria escàs impacte jurídic. Un altre ús dels més habituals és la IA per a proporcionar algun tipus de predicció i simulació intel·ligent basada en bases de dades, mitjançant el reconeixement i la visualització de patrons en (grans) dades socioeconòmiques. Segons allò exposat, en la mesura en la qual s'utilitze per a l'adopció de polítiques o decisions col·lectives, hauria de subjectar-se a futures garanties d'impacte i control social amb participació de la societat civil.
La següent tipologia més emprada és l'ús de la IA  per a la presa de decisions algorítmiques i la visió per ordinador per a reconèixer persones, objectes o altres elements en imatges. En tot cas, més de la meitat de les solucions d'IA que s'utilitzen actualment (127 de 230) a la UE semblen aportar únicament canvis incrementals o tècnics a l'organisme, per la qual cosa tindrien en principi menor repercussió o més indefinida en la ciutadania.  

Les escasses garanties de l'article 41. 1r Llei 40/2015 en bona part no abasten a l'ús públic de la intel·ligència artificial

Cal analitzar cada cas concret i, com s'ha dit, la premissa imprescindible és conèixer els tractaments massius de dades, perfilats, big data i ús d'algorismes i altres tecnologies connexes per a, a partir del seu coneixement, avaluar concretament els seus possibles riscos i garanties procedents.
Com és sabut, des de la Llei 11/2007 ja es van preveure les possibles decisions automatitzades. Avui queden regulades per l'article 41. 1r Llei 40/2015. Les seves insuficiències són majúscules. D'un costat, només estableix algunes garanties prèvies, certament escasses: “haurà d'establir-se prèviament l'òrgan o òrgans competents, segons els casos, per a la definició de les especificacions, programació, manteniment, supervisió i control de qualitat i, en el seu cas, auditoria del sistema d'informació i del seu codi font. Així mateix, s'indicarà l'òrgan que ha de ser considerat responsable a l'efecte d'impugnació”. Però és que aquestes garanties les reserva a l'ús en el marc formal de procediments administratius, que a més ha de ser “íntegrament” automatitzat i sense supervisió humana. D'aquesta manera, molts dels possibles usos de big data i intel·ligència artificial en el sector públic tan si més no queden sota el règim d'aquest precepte, ja que es queden en l'avantsala dels procediments administratius i, en tot cas, no es tracta d'actuacions íntegrament automatitzades.
Però és més, poden considerar-se així mateix que l'article 41 Llei 40/2015 no dóna cobertura a decisions d'intel·ligència artificial que impliquin una certa autonomia del sistema respecte dels seus dissenyadors, la qual cosa és propi de la noció d'intel·ligència artificial. En aquest sentit Valero Torrijos en 2007 o Martín Delgado en 2009 (pàg. 368 et seq.) assenyalarien que el límit de les decisions automatitzades a les quals donava cobertura la llei quedava en la capacitat de discrecionalitat i que quedaren limitades a l'àmbit reglat de la potestat i en general en àmbit senzills en els quals el sentit de la resolució està determinat . Martin Delgado ja avançava la possibilitat d'utilitzar sistemes allí on la discrecionalitat fora de “baixa intensitat”, la qual cosa quedava en l'àmbit de la discrecionalitat tècnica, sempre que la llibertat decisòria es concreta en criteris tècnics i no polítics (pàg. 369-370). I en conseqüència no cap l'automatització si hi ha “discrecionalitat política o discrecionalitat tècnica no parametrizable”. Sent la norma del procediment la que ha d'habilitar l'automatització de l'actuació administrativa.
D'aquesta manera, s'evidencia encara més si cap la necessitat de dotar d'una millor cobertura legal a les decisions automatitzades que no siguin de molt escassa rellevància jurídica. Pot sostenir-se que avui dia la legislació administrativa no dota de cobertura legal suficient genèrica a l'ús de sistemes d'intel·ligència artificial que tinguin alguna rellevància jurídica. I òbviament, si les actuacions -merament- automatitzades compten amb alguna regulació jurídica, es deriva que hauria de comptar amb una singular regulació -i òbviament més garantista- les actuacions automatitzades que impliquin una certa autonomia o, segons s'ha assenyalat, que vagin més enllà d'una mera discrecionalitat tècnica.
Com hem afirmat, no és el mateix una Administració assistida per algorismes que una administració impartida per la intel·ligència artificial. A major impacte, major necessitat de regulació i garanties.

La “fugida” de les garanties de la protecció de dades i en particular de l'article 22 RGPD

La IA atreu gairebé per defecte l'aplicació del règim de la protecció de dades. I a vegades, és gairebé l'únic règim jurídic avui dia clarament aplicable. Ara bé, ha de donar-se la premissa que els variats macrodades que alimenten la IA siguen dades de persones identificades o identificables, o reidentificables quan han estat seudonimitzades. En aquest punt és molt possible que l'ús de dades en el sector públic per a decisions o polítiques col·lectives per a àmbits com a salut, educació, transport, sostenibilitat i un llarg etc. no siga de dades personals, és més, no ha de ser de dades personals. Doncs bé, com he assenyalat, deuen també regular-se garanties de qualitat de les dades i sistemes d'impacte social i participació de la societat civil.
Si s'aplica la normativa de protecció de dades a l'ús de la IA en el sector públic cal partir del compliment dels principis, la legitimació del tractament, els drets, la responsabilitat proactiva i privacitat en el disseny o el règim de les transferències internacionals de dades. Així mateix i per defecte s'exigirà l'estudi d'impacte. És important recordar aquesta general obligació de compliment normatiu perquè de cap manera cal limitar-se a l'article 22 RGPD que regula les decisions i perfilats automatitzats.
Aquest article 22 afirma com a dret subjectiu el “dret” a no ser sotmès a decisions automatitzades. Certament més que un dret, l'article 22 implica un conjunt d'especialitats i garanties, les quals se superposen a les que garanteix el més general dret fonamental i regulació de protecció de dades. En qualsevol cas, la clara intenció d'aquest “dret” és que les decisions automatitzades rellevants, per la seva sensibilitat o particularitat, tenen ser compensades amb garanties especials. Entre elles, implica particulars deures de transparència. Així, es dóna la concreta obligació de facilitar “informació significativa sobre la lògica aplicada, així com la importància i les conseqüències previstes d'aquest tractament per a l'interessat” (art. 13. 2n f i 14. 2n g) RGPD-UE). D'igual manera, el dret d'accés permet sol·licitar aquesta informació (article 15. 1r. h). I la possibilitat de reclamació i d'intervenció humana significativa.
Perquè aquestes garanties siguen exigibles és necessari que es tracte d'una “decisió basada únicament en el tractament automatitzat, inclosa l'elaboració de perfils, que produeixi efectes jurídics en ell o l'afecti significativament de manera similar”. D'aquesta manera, les particulars garanties no es donarien per a decisions semiautomatitzades o decisions humanes a partir de propostes automatitzades, que sembla ser el més habitual en el sector públic.
Ara bé, l'error comú és pensar que si no s'aplica l'article 22 RGPD no és aplicable la resta de la normativa de protecció de dades. No obstant això, respecte de decisions que no siguin només automatitzades o no siguin rellevants per a l'afectat, sempre quedarà el París del règim general de protecció de dades aplicable. Que no és poc.
Si que quedarien fora d'aquest dret les decisions si “un ésser humà revisa i té en compte altres factors per a prendre la decisió final”. No obstant això, i això és important, “si algú aplica de manera rutinària perfils generats automàticament a persones sense que això [la revisió humana] tinga cap influència real en el resultat, això continuaria sent una decisió basada únicament en el tractament automatitzat”. No ha d'obviar-se que en no pocs ecosistemes administratius hi ha no sols una presumpció d'encert del sistema automatitzat, sinó una clara tendència a simplement validar la decisió automatitzada. Perquè no regeixa aquest dret i les seves especials garanties, la intervenció humana ha de ser “significativa, en comptes de ser únicament un gest simbòlic” i duta a terme per “persona autoritzada i competent”. Cal assenyalar que l'estudi d'impacte que ha de fer-se ha de registrar el grau d'intervenció humana. (Grup Article 29 UE, 2018: 23).

Fugida del Dret perquè ni sabem quins usos s'estan donant i perquè es consideren fases prèvies i mer suport de decisions humanes. A seguir l'exemple holandès

Les majors o menors garanties que hui puguen derivar-se del règim jurídic normatiu i especialment dels drets fonamentals en joc, pràcticament les garanties poden quedar en res. Això és així perquè un dels majors perills és el que em permeto a qualificar la fugida del Dret administratiu de l'ús d'intel·ligència artificial en el sector públic. Amb caràcter previ cal assenyalar que, com hem criticat des de la Xarxa DAIA, és especialment difícil conèixer els sistemes de IA que s'estan usant. És molt possible que des de les Administracions Públiques que els empren ni perceben que el seu ús no pot ser aliè al Dret. I òbviament, ningú pot tan si més no demandar que aquests usos fora d'antena puguin ser fiscalitzats per a comprovar el seu compliment normatiu.
Des de  la Xarxa de Dret Administratiu de la IA (Xarxa DAIA) hem criticat i molt que no hi haja un mapatge dels usos de IA en el sector públic, alguna cosa que afortunadament des de Catalunya s'està començant a evitar, assenyalant 50 casos d'ús (ACPD, 2020). De fet, considere que en molts casos -quan es tracten dades identificables- seria una obligació legal difondre aquests tractaments en raó de l'article 6 bis de la Llei 19/2013, de 9 de desembre, de transparència, respecte de l'inventari d'activitats de tractament en aplicació de l'article 31 de la Llei orgànica 8/2018. És molt possible que administracions capdavanteres com a tributàries, de seguretat social, la Comissió Nacional del Mercat i la Competència  i altres estiguin usant sistemes automatitzats i avançats per a la detecció i lluita contra el frau. No obstant això i lamentablement, ni ho sabem.
La fugida del Dret a la qual faig referència succeeix especialment respecte de l'ús de la IA en les fases prèvies o d'assistència a les decisions humanes. Es tracta en general de casos d'ús de sistemes automatitzats, tractaments de grans dades o intel·ligència artificial que s'empren per a seleccionar objectius de possible incompliment normatiu, per a assenyalar una potencial inspecció o diligències prèvies a una possible sanció o altres actuacions. Aquest tipus d'usos queden fora de l'actuació formal i per això es facilita una fugida del Dret: garanties de transparència, respecte del dret a una bona administració, garanties del procediment, etc.
Aquest tipus d'actuacions queden en general sota el règim parc i difús de la “informació i actuacions prèvies” de l'article 55 Llei 39/2015 de procediment. En aquesta fase, la llum de la transparència és molt tènue i difícilment aconsegueix ni el dret d'accés a l'expedient del propi interessat (article 53 Llei 39/2015) ni la legislació de transparència (Boix, 2020).
No obstant això, la qüestió es perd una gran opacitat i la fugida del Dret està servida. Possiblement és el secret millor guardat amb l'ajuda de l'actual ordenament jurídic. Els plans de control tributari són “reservats”, sense perjudici de “que es facin públics els criteris generals que ho informen” (article 116, Llei 58/2003, de 17 de desembre, General Tributària). I el caràcter reservat s'estén als mitjans informàtics i sistemes de selecció. Així, l'article 170.7 Reial decret 1065/2007, de 27 de juliol (reglament general d'actuacions i procediments de gestió i inspecció tributària) disposa que “Els plans d'inspecció, els mitjans informàtics de tractament d'informació i els altres sistemes de selecció dels obligats tributaris que vagin a ser objecte d'actuacions inspectores tindran caràcter reservat, no seran objecte de publicitat o de comunicació ni es posaran de manifest als obligats tributaris ni a òrgans aliens a l'aplicació dels tributs.” Així mateix, es tracta d'una fase de l'actuació administrativa en bona part immune al control judicial. No en va, la determinació dels obligats tributaris que vagin a ser objecte de comprovació “té el caràcter d'acte de mer tràmit i no serà susceptible de recurs o reclamació economicoadministrativa” (art. 170.8° Reial decret 1065/2007). És més, l'Administració tributària ni tan sols queda vinculada pels seus propis plans d'inspecció. Com recorda recentment el TS, no hi ha un “dret subjectiu del contribuent a no ser investigat si no es troba inclòs en aquests plans i programes, perquè això suposaria l'incompliment per part de l'Administració del deure de fiscalització que tots els ciutadans compleixin amb el deure de contribuir” sentència 236/20 de 19 de febrer, Recurs de cassació 240/2018.
Cal recordar referent a això que la sentència de 5 de febrer de 2020 del Tribunal de Districte de la Haia (C / 09/550982 / HA ZA 18-388)xxx declara contrari a l'article 8 CEDH sistema Systeem Risicoindicatie (SyRI) (Cotino 2020). Pel que ara interessa, aquesta sentència és molt exigent puix que analitza i projecta les garanties respecte d'aquests tractaments automatitzats que serveixen per a detectar un possible positiu. De cap manera es va entendre que no es tractava d'una actuació administrativa plenament fiscalizable i respecte de la qual cal exigir el compliment de les garanties, abans al contrari, el sistema implicava un “efecte legal, o almenys una decisió que afecta significativament els interessats” (6.57). Aquest ha de ser el punt de vista de partida del legislador que ha de regular aquestes fases.
És per això que en la Declaració final de Valenciana de la Xarxa DAIA insistim que “3. Especialment cal conèixer l'ús de la IA en les fases prèvies o d'assistència a les decisions humanes, per a evitar la fugida del Dret”, així com que “ha d'haver-hi una clara traçabilitat i transparència de l'ús de sistemes algorítmics en qualsevol fase i tipus d'actuació administrativa -formal o informal- que, entre altres coses, permeti determinar el grau real d'intervenció humana en la presa de decisions.” (n. 3r).
El sistema automatitzat o algorisme sí que influeix en el contingut de la posterior acció administrativa, no en va és la premissa de l'actuació i possiblement delimita els elements estructurals bàsics d'aquesta actuació en detectar els patrons i pautes de la comissió d'alguna irregularitat. Per dir-ho d'una altra manera, per a qui finalment és sancionat, no és d'escassa rellevància jurídica haver estat preseleccionat com a possible infractor i de ben segur considerarà necessari . És més, del contrari, no ser seleccionat i deslliurar-se d'una actuació que sí que pugui correspondre, també és ben rellevant i és d'interès de tota la societat saber els criteris de selecció.
De cap manera pot alliberar-se de garanties i obligacions jurídiques considerant que es tracta d'actuacions sense rellevància, o merament auxiliars o complementàries, tampoc han de considerar-se mers actes de tràmit i, òbviament, no es tracta en cap cas d'actes merament reglats, mecanitzables i automatitzables que no haguessin de tenir transcendència jurídica.
No obstant això, cal tenir especialment cauteles en aquest àmbit, ja que aquí és on es detecta una preocupant fugida del Dret. No cal llevar importància i negar rellevància jurídica a aquests usos. Per contra, assenyala Huergo (2002, 77) que en la pràctica, els problemes jurídics que pot plantejar la utilització d'aquests models algorítmics han quedat en segon pla perquè no s'utilitzen per a prendre decisions finals, sinó únicament per a dictar actes de tràmit, no resolucions. Quedarien en un segon pla i amb una “irrellevància jurídica gairebé total”. Segons l'exposat, el punt de partida ha de ser el contrari.

Per a concloure

Doncs bé, és necessari actuar en no poques línies per a frenar les molt diverses fugides del Dret que s'han esmentat.
Quan es consideri que no hi ha dades personals identificables ni afecció concreta a drets o interessos legítims, però els tractaments dades massives i l'ús d'intel·ligència artificial serveixin per a donar suport a decisions públiques col·lectives, han de regular-se diversos mecanismes per a assegurar la qualitat de les dades i els tractaments, anàlisis específiques d'impacte social i participació de la societat civil. Això bé pot integrar-se en procediments participatius i d'audiència pública.
Ha de regular-se i dotar de cobertura legal els tractaments automatitzats del sector públic en el marc d'actuacions més o menys procedimentals i que van més enllà de la discrecionalitat tècnica, que serien els propis de la intel·ligència artificial i sistemes d'autoaprenentatge. No cal conformar-se amb esmentar que hi ha decisió i participació humana, sinó que ha d'haver-hi garanties que permetin verificar el grau real de participació humana, a més de les garanties de auditabilidad, transparència, explicabilidad del sistema. Però és més, han de quedar clares les garanties de transparència i protecció de dades fins i tot en els casos en els quals hi ha intervenció humana, però la decisió administrativa part d'una actuació automatitzada i especialment en raó de l'impacte de la mateixa en l'esfera de drets i interessos afectats.

 


 

Lorenzo Cotino Hueso
Lorenzo Cotino Hueso

Catedràtic de Dret Constitucional Universitat de València).
Director de l'Observatori PAGODA (Transformació Digital Sector Públic).
Director Privacitat OdiseIA.