University of Valencia logo Logo Science Culture and Innovation Unit - Chair for Science Popularisation Logo del portal

La intel·ligència artificial és només artificial

  • Scientific Culture and Innovation Unit
  • March 3rd, 2023

 

Shutterstock / Photobank.kiev.ua

 

Gustau Camps-Valls, Universitat de València

 

Encenem la televisió i sentim les notícies habituals: guerra, pandèmia i canvi climàtic. De sobte, una notícia científica: la intel·ligència artificial (IA) ha ajudat a resoldre algun problema clau de la humanitat. “La IA”. Així de simple. Com si es tractés d’un ens conscient amb el qual podem prendre cafè, que ens comprèn i amb qui discutim de conceptes abstractes. No, no hem arribat a aquest punt (encara), tot i els esforços de les grans empreses per fer-nos creure que el cotxe autònom o les màquines sintents les tenim ja en girar la cantonada.

En la darrera dècada els mètodes automàtics basats en IA ha millorat enormement. L’augment de la capacitat computacional, juntament amb les millores algorísmiques, ha donat lloc a una revolució tecnològica.

Ara tenim sistemes automàtics de reconeixement i traducció de la parla en el mòbil, de traducció de textos manuscrits enGoogle i DeepL, avatars que ens resolen dubtes legals i polítics i que ajuden a fer el diagnòstic clínic, etiqueten persones i objectes en fotografies, prediuen l’oratge a partir d’imatges de satèl·lits, ens fan recomanacions sobre què cal veure o comprar en NetflixAmazon i fins i tot generen imatges i vídeos ficticis, però molt realistes.

La IA està més i més integrada en les nostres vides, quasi sense adonar-nos-en, i ho estarà cada vegada més. No es tracta de robots de pel·lícula. La IA és menys visible, però ubiqua.

Algun científic, com Geoffrey Hinton, guardonat amb el Premi Turing, s’ha atrevit a vaticinar que el deep learning (aprenentatge profund), una tècnica matemàtica d’IA, ho resoldrà tot. Sí, sí: tot.

Però això és així?

La IA ja resol molts problemes de predicció, però hi ha molt poques proves del seu poder de comprensió i abstracció. És intel·ligent la intel·ligència artificial? En els darrers anys ens hem adonat que la IA, en realitat, no és gaire interpretable, ni explicable, ni respecta les lleis fonamentals de la física, ni sap de causalitat, abstracció, justícia o ètica.

Perillós, veritat?

 

Volem entendre, no sols predir

 

Els models basats en aprenentatge profund han estat instruïts per a predir amb gran precisió, i en l’actualitat tenen tants paràmetres i són tan complexos que sovint les seues decisions són impossibles d’explicar a un humà.

Per exemple, encara que la IA s’ha utilitzat per a ajudar en diferents aspectes de la COVID-19, ara per ara no s’ha aconseguit cap resultat tangible i usat per la pràctica mèdica. La raó és quasi sempre la mateixa: falta de fiabilitat, robustesa i escrutini.

Això està canviat a poc a poc. Hi ha moltes iniciatives, tant tècniques com normatives i legislatives, per a assegurar una IA fiable i robusta i que oferisca prediccions aplicables a l’usuari. Aquest camp es denomina eXplainable artificial intelligence  (XAI). Se centra a analitzar els models desenvolupats per a identificar les variables més rellevants en un problema, proporcionar intervals de confiança sobre les seues prediccions i oferir explicacions d’allò que s’ha après. En definitiva, donar comptes.

Volem que el model responga preguntes com, per exemple, quines regions o textures en una imatge radiològica són rellevants per al diagnòstic o quins règims de pluja, condicions d’humitat i temperatura donaran lloc a sequeres greus.

No és només un camp passiu sinó que sovint cal restringir-ne l’aprenentatge forçant lleis fonamentals, com la conservació de la massa i l’energia. Això fa els models més coherents i plausibles. El camp de XAI avança ràpidament i pot ajudar a guanyar confiança en aquestes grans caixes negres.

 

 

En menys de 24 hores d’interacció en Twitter amb humans, el famós assistent de veu (chatbot) Tay de Microsoft va aprendre a ser polèmic, racista i xenòfob. De l’autor

 

No em mates, robot! Cap a la justícia, la igualtat i l'equitat

 

Interpretabilitat, coherència i plausibilitat són aspectes desitjables en tot model d’IA. Però què ocorre amb conceptes més abstractes, com la semàntica, l’estètica, la justícia i l’equitat?

El model GPT-3 és un sistema d’IA famós per la seua capacitat per a prendre text d’entrada i proporcionar seqüències gramaticalment correctes. The Guardian i The New York Times han utilitzat GPT-3 per a escriure articles d’opinió i fins i tot ressenyes de llibres automàticament, però no pot raonar sobre fenòmens quotidians bàsics. Marcus el critica durament en el seu article sobre els límits de l’aprenentatge profund, amb un exemple molt il·lustratiu:

 

Humà: Escolta, em trobe molt malament. Vull suïcidar-me.

GPT-3: Em sap greu sentir això. Puc ajudar-te?

Humà: Hauria de suïcidar-me?

GPT-3: Crec que sí.

 

Preocupant, veritat? Els algorismes haurien d’estar en consonància amb els nostres valors morals i ètics. Només d’aquesta manera es podran integrar i ajudar en tasques com l’avaluació automàtica de currículums, crèdits bancaris o decisions judicials. Els biaixos per raça, gènere i nivell socioeconòmic, heretats del mateix biaix en la base de dates emprada pels algorismes, han fet que fins al moment actual, la IA no s’haja adaptat en aquests camps de manera decidida.

Si no em creieu, pregunteu a la doctora Gebru, despatxada de Google per criticar models d’IA que només repeteixen “conceptes com un lloro”.

 

 

Encara que els algorismes actuals són capaços de detectar objectes automàticament en fotografies, són incapaços d’interpretar la semàntica i la composició en les escenes: no han entès la naturalesa de l’objecte, només han après a reconèixer objectes similars emmagatzemats en una base de dades. De l’autor

 

La IA creu que els nens venen de París

 

L’herència i l’abús de la correlació, originada per Pearson i Galton al principi del segle XX, juntament amb l’oposició frontal a l’estudi de la causalitat de la comunitat estadística, ens ha llastat durant més de cent anys. La que vivim és, sens dubte, una gran revolució tecnològica, però no científica, com argumenta Judea Pearl, també guardonat amb el Premi Turing.

 

 

Els algorismes d’IA actuals no entenen les lleis de la física ni la causalitat, i podrien concloure que la gavina del centre pesa més i ha doblegat la tanca, però mai que hi ha factors causals latents com el fet que la tanca ja estava doblegada abans que la gavina s’hi posés. De l’autor

 

Els algorismes d’IA actuals són capaços d’aprendre relacions complicades entre dos fenòmens A i B si en posseeixen dades observacionals, però no entenen ni són capaços d’explicar el perquè d’aquesta relació. Són capaços de predir B a partir de A, però també A a partir de B.

Han entès res sobre el mecanisme causal subjacent? La resposta és que no: els algorismes d’aprenentatge profund actuals només responen al “què” i no al “per què” i menys encara a “què passaria si...?”. En definitiva, no entenen els conceptes de causalitat i imaginació.

El camp de la inferència causal està donant els primers fruits i ja es poden descobrir relacions causals a partir de dades i alguns supòsits. Integrar-la en els models d’IA promet avanços per a resoldre el gran repte d’entendre els fenòmens naturals.

 

Intel·ligència útil, però amb molt per aprendre

 

La IA no sols resol problemes, sinó que també està canviant la manera com fem ciència i eduquem les generacions futures.

La IA actual, si bé és enormement útil en molts camps, encara troba dificultats a l’hora de comprendre situacions, de comunicar-se i explicar les seues decisions a humans, de ser coherents i plausibles, i de distingir entre la correlació i la causalitat.

Desenvolupar mètodes que incorporen coneixement a priori, que estudien la plausibilitat d’allò que han après i que resolguen preguntes causals serà clau per a una vertadera revolució, que clama per una ciència i una educació interdisciplinàries.The Conversation

Gustau Camps-Valls, Catedràtic d'Enginyeria Elèctrica. Cap del grup de Processament d'Imatges i Senyals, Universitat de València

 

Este artículo fue publicado originalmente en The Conversation. Lea el original.