Le reti neurali come ausilio all’attribution climatico

Per i rapporti IPCC e per gli addetti ai lavori appare molto chiaro oramai che i recenti cambiamenti climatici siano attribuibili molto probabilmente alla variazione della concentrazione dei gas serra. Sebbene lo scetticismo e il negazionismo gratuito siano all’ordine del giorno, proveremo in una serie di articoli a capirne di più.
In climatologia è utile suddividere le ricerche in lavori di detection e di attribution. La detection, propriamente “rilevazione”, si occupa dello studio finalizzato alla ricerca dei cambiamenti climatici (nei valori di media e variabilità) e si può dire che un fenomeno di cambiamento è in atto se la probabilità che questo si verifichi in maniera casuale è bassa. L’attribution, invece, mette in atto degli studi più approfonditi: se un fenomeno è stato “detected” (rilevato) allora bisogna capire a quale causa si può attribuire con le dovute incertezze e probabilità, le quali accompagnano sempre questi studi fisici.

index1.jpg

Il metodo “base” per l’approfondimento di questi studi è la modellistica. I modelli climatici tengono conto delle equazioni che regolano il clima (e l’interazione tra i vari sottosistemi attraverso i cosiddetti accoppiatori) e delle dovute parametrizzazioni per i fenomeni non conosciuti alla perfezione. Costituita la struttura matematica fondamentale, il modello viene fatto girare più volte sui dati del passato per controllare che effettivamente vi sia una ricostruzione dei dati in qualche modo fedele; se tutto ciò avviene con successo allora diviene plausibile utilizzare questi modelli per la previsione del clima futuro o anche per i problemi di attribution su citati.

Un altro modello utilizzato in climatologia nei problemi di attribution è la rete neurale artificiale, basato sul funzionamento dei neuroni. La prima modellizzazione matermatica avvenne nel 1943 e consisteva nella sommatoria pesata dei dati introdotti dalle connessioni di input, il quale risultato veniva sottoposto a una funzione detta di attivazione (come la funzione “gradino”, vedasi la prossima figura): se questo era superiore a una certa soglia allora il neurone veniva considerato “acceso” con un valore uguale a 1, altrimenti era da considerarsi “spento” e il valore di output corrispondente era 0.

Neurone di Pitts

Senza entrare nei particolari (che vedremo nei prossimi articoli), le reti neurali sono state oggetto di studio e sono state migliorate nel corso del secolo scorso. Sostanzialmente non sono altro che un metodo statistico di regressione ma si differenziano per la possibilità di migliorare la ricostruzione delle relazioni non lineari tra input e output.

Cosa rende “intelligente” una rete neurale? Dovremmo iniziare col specificare cosa significa intelligente, dato che in natura esistono numerosissimi esseri viventi capaci di vivere e sopravvivere in tantissimi modi diversi e a volte anche sorprendenti ma in fin dei conti siamo sempre noi che ci riteniamo “più intelligenti” di tutti. Tralasciando le questioni filosofiche, assumeremo che la rete neurale è intelligente perchè “capace di trovare e apprendere relazioni tra determinate variabili“.

Sostanzialmente le reti si suddividono tra reti con apprendimento controllato e non controllato. Le prime si basano sul confronto tra output calcolato dalla rete e target reale (in pratica le risposte ritenute “vere” sono già note) mentre le seconde elaborano delle suddivisioni in categorie di output a partire dai dati di input senza conoscere qual è la “realtà”.

Presupponiamo di avere una serie di dati meteorologici, per esempio la temperatura globale media annuale, le concentrazioni di gas serra e altri dati legati alla variabilità naturale (irradianza solare, indici climatici, ecc) dal 1860 a oggi. Utilizziamo allora un modello di rete neurale, che da adesso in poi chiameremo NN (Neural Network), per capire se dai dati è possibile ricostruire la serie temporale attraverso qualche legge fisica. Se ciò dovesse accadere allora potremmo supporre che tra le due serie temporali vi debbano essere correlazioni. In realtà, soprattutto per gli “addetti ai lavori”, la correlazione tra questi due tipi di dati è qualcosa di già noto ma è utile prenderla in considerazione per vedere come lavora la NN.

In uno studio del Dott. Pasini il risultato di questa prova viene illustrato insieme ad alcune interessanti osservazioni:

  • l’inserimento in input alla rete neurale delle sole variabili “naturali” restituisce una correlazione del 61% tra serie ricostruita e serie reale delle temperature medie annuali globali;
  • l’inserimento in input della CO2 e degli altri gas serra restituisce, invece, una correlazione dell’81% e il trend generale viene ricostruito molto meglio rispetto al caso precedente;
  • l’unione in input di forzanti naturali e forzanti antropogeniche su citate non migliora di molto le performance;
  • l’aggiunta della variabilità climatica interna legata alle oscillazioni dell’ENSO migliora di qualche punto percentuale  le correlazioni (84%) mostrando che questa volta viene ricostruita in parte anche la variabilità interannuale;
  • ulteriori analisi statistiche mostrano che vi sono altre dinamiche nascoste che non permettono una migliore ricostruzione della serie temporale.

 

Qual è la morale della favola? Avevamo iniziato col parlare di attribution e di recenti cambiamenti climatici. Il risultato di questa analisi è che si ottiene un’altra conferma circa l’attribuzione del Global Warming: le temperature sono aumentate molto probabilmente a causa dell’aumento della concentrazione dei gas serra e lo studio di sensibilità climatica (che vedremo meglio nei prossimi articoli) indica che non è possibile ricostruire bene l’andamento termico considerando soltanto le forzanti naturali. Giungiamo alla conclusione che se non è bastato la natura a modificare il clima allora l’uomo ci ha messo abbondantemente il suo zampino.
Naturalmente non possiamo fermarci a questa analisi e bisogna porsi alcuni interrogativi:

  • è possibile migliorare le prestazioni della rete neurale e capire quali altre sono le cause che hanno portato al recente cambiamento climatico?
  • i dati inseriti nel modello sotto quali ipotesi vengono utilizzati?
  • come opera in realtà il modello neurale?
  • cosa accade a livello regionale? ritroviamo gli stessi risultati?

Le risposte a queste domande le daremo nelle prossime puntate.


Articolo di Giancarlo Modugno


Ultime notizie Leggi tutte


Previsioni Meteo : ancora maltempo anche nel week-end, poi gran freddo?

Meteo Protezione Civile: il bollettino per domani, Giovedì 14 Dicembre

Terremoto in tempo reale INGV : scosse di oggi 13 Dicembre 2017 (ultimi terremoti, orario)

Rinforza l’anticiclone ma l’Italia resterà al freddo ancora per diverso tempo
Meteo a 15 giorni: l’anticiclone di Natale potrebbe essere detronizzato facilmente

COMMENTS


Servizi Meteo per Siti - Staff - Cookie-policy - Contatti