El 'machine learning' continua proporcionant dades per a l'Observació de la Terra

  • Parc Científic
  • 18 de juliol de 2019
 
imatge recurs machine learning

Un equip d'investigadors liderat per la Universitat de València, en col·laboració amb la University of Oxford (UK) i el Max Planck Institute of Biogeochemistry (Alemanya) han proporcionat una revisió d'algorismes de machine learning capaços de millorar les estimacions de variables crítiques per al monitoratge de la Terra. El treball, que contribueix a millorar la predicció climàtica i la seua compressió, apareix publicat en la revista National Science Review.

La Terra és un sistema complex i dinàmic, on molts processos es relacionen entre si. És un sistema difícil de monitorar i predir. Per a tal finalitat, matemàtics i enginyers desenvolupen models capaços d'explicar les observacions i mesures obtingudes per sensors a bord de satèl·lit o estacions de mesura repartides per tot el planeta. Els models clàssics s'han basat a codificar i implementar en forma d'equacions el nostre coneixement físic. Amb aqueixos models es pot estimar la temperatura superficial de la terra, la concentració d'ozó atmosfèric o la salinitat dels oceans. Aquests models són, no obstant això, molt costosos computacionalment i requereixen assumpcions sobre els processos involucrats i les seues relacions, que sovint són molt simplistes o fins i tot arbitràries. En l'actualitat, l'alternativa ve des de l'aprenentatge estadístic (machine learning) que planteja models molt flexibles i eficaços per a l'estimació de variables d'interés a partir de dades i observacions.

Després de publicar recentment a Nature diferents algorismes capaços d'aprendre les relacions causals entre variables a partir de dades, ara l'investigador de la Universitat de València Gustau Camps-Valls, juntament amb científics de l'Oxford University i el Max Planck Institute of Biogeochemistry (Alemanya), argumenta en un nou treball que els algorismes actuals estan limitats en diferents sentits. L'article, que apareix en la revista National Science Review, presenta una visió crítica sobre el tema i aporta possibles solucions a aquest problema en el futur. “Els algorismes actuals, per exemple, s'empren en les seues formes més bàsiques, i sovint no són consistents respecte a les més elementals lleis de la física; simplement interpolen a partir de dades però no han aprés res especial”, comenta Gustau Camps-Valls, professor del Departament d’Enginyeria Electrònica i responsable del grup de Processament d'Imatges i Senyals (ISP) del IPL (Image Processing Laboratory), en el Parc Científic de la Universitat de València. “Proposem nous algorismes que puguen incloure restriccions en forma de lleis fonamentals, i nous models de caixa negra més comprensibles que ens ajuden a aprendre de tot allò que aporten les dades”, conclou.

Els algorismes que es proposen no solament pretenen ser més precisos i consistents, sinó més senzills i interpretables. “La interpretabilitat és tal vegada el tema crític quan estem parlant de models de machine learning”, assenyala el Dino Sejdinovic, professor del Departament d'Estadística de l'Oxford University. “Es tracta d'una característica que s'ha sacrificat durant massa temps en favor de la precisió, i això no pot continuar així quan parlem de models els resultats dels quals i les prediccions tenen implicacions en el medi ambient i economia”.

Referència

“A Perspective on Gaussian Processes for Earth Observation”. Gustau Camps-Valls, Dino Sejdinovic, Jakob Runge, Markus Reichstein National Science Review, 2019. Oxford Academic Press, Chinese Academy of Science.

Els investigadors
D'esquerra a dreta i de dalt a baix, Jacob Runge, Gustau Camps-Valls, Marcus Reichstein i Dino Sejdinovic

 

Més informació: