Visione artificiale contro i disastri naturali

14 Settembre 2023 Silvio Marano

Visione artificiale contro i disastri naturali

Le nuove tecnologie permettono di affrontare le sfide dell’umanità in modi prima impensabili. La visione artificiale contro i disastri naturali può essere uno strumento formidabile.

Nel settore tecnologico (e in quello informatico in particolare), è necessario tenersi in costante aggiornamento, per restare al passo e mantenere un’adeguata visione d’insieme degli scenari applicativi e le possibili soluzioni da adottare.
Nello stesso periodo dell’alluvione dell’Emilia-Romagna, che ha causato danni stimati per 900.0000.000€ e oltre 20.000 persone sfollate, per tenermi aggiornato sull’applicazione delle nuove tecnologie in scenari applicativi emergenziali di crescente interesse, ho completato anche un corso di approfondimento sull’analisi d’immagini satellitari per la prevenzione dei disastri naturali.

Aree alluvioni in Nepal mappate dalla visione artificiale.

Il corso con relativa certificazione, è frutto della collaborazione tra Nvidia e la United Nations Satellite Centre (UNOSAT) nota in italiano anche come OSNU (un’organizzazione delle Nazioni Unite nata nel 2000, dipendente dall’UNITAR), e verteva sull’utilizzo dell’intelligenza artificiale tramite tecniche di deep learning per l’analisi delle immagini fornite dai satelliti della costellazione Sentinel-1 sui server inferenziali Triton, al fine di rilevare le aree a rischio d’inondazione,  e mi ha dato nuovi spunti sulle possibilità d’impiego della visione artificiale, un campo di cui mi occupo ormai da anni.

LA COSTELLAZIONE SENTINEL-1

Sentinel-1 è una missione spaziale parte del più ampio programma Copernicus gestito dall’ESA (European Space Agency), che mira a fornire informazioni complete e tempestive sull’ambiente terrestre per supportare un’ampia gamma di applicazioni, tra cui il monitoraggio ambientale, la gestione dei disastri e la ricerca scientifica.

Sentinel-1 utilizza il sistema SAR (Synthetic Aperture Radar), e fornisce immagini continue in ogni condizione atmosferica, sia di giorno che di notte, con trasmissione in banda C. La costellazione constava di due satelliti: Sentinel-1A e Sentinel-1B, progettati da un consorzio di 60 aziende capeggiate da Thales Alenia Space e Airbus Defence and Space. I satelliti sono stati messi in orbita rispettivamente il 3 Aprile 2014 e il 25 Aprile 2016, sfortunatamente, a causa di un problema tecnico avvenuto nel dicembre 2021, Sentinel-1B è stato ritirato, ma presto si aggiungeranno altri due satelliti, Sentinel-1C e Sentinel-1D.

Ogni singolo satellite è in orbita terrestre bassa (categoria in cui rientrano tutti i satelliti di altitudine compresa tra l’atmosfera e le “Fasce di Van Allen”, ossia tra 300 e 1000 km), ed è in grado di mappare l’intero pianeta in 12 giorni; tempo che per l’intera costellazione Sentinel-1 si riduce distribuendo le aree di osservazione su più satelliti. I dati da essi raccolti sono accessibili tramite il portale Copernicus Open Access Hub.

Sentinel-1 modalità SAR

MONITORAGGIO E PREVENZIONE RISCHI DI CALAMITÀ NATURALI

Uragano Isabel visto dalla Stazione Spaziale Internazionale

I disastri naturali sono tra gli eventi più devastanti e hanno un enorme impatto sulle comunità e sugli ecosistemi. La crescente frequenza e intensità di questi disastri, tra cambiamenti climatici e grossolani errori e negligenze nella gestione territoriale, hanno evidenziato l’urgente necessità di approcci innovativi per prevedere, prevenire e rispondere in modo più efficiente ed efficace.
L’utilizzo delle immagini satellitari offre un grande contributo.
Monitorare i rischi ambientali tramite le immagini dei satelliti nel modo tradizionale però richiede un gran lavoro da parte di personale con competenze estremamente specifiche, e che non è reperibile in quantità adeguate ad analizzare l’enorme mole di dati raccolta continuamente su tutto il territorio.

Ed è qui che entra in gioco l’integrazione delle tecnologie di visione artificiale.

L’IMPORTANZA DELLA VISIONE ARTIFICIALE

I moderni sistemi di visione artificiale basati su deep learning, permettono di avere computer in grado d’imparare, interpretare e “capire” le informazioni visive provenienti dal mondo. La visione artificiale, comprende infatti una serie di tecniche, per l’analisi di immagini e video, il rilevamento di oggetti, il tracciamento e il riconoscimento di pattern specifici in enormi quantità di dati visivi. Le funzionalità sono versatili e applicabili in tutti gli ambiti dove è necessaria l’interpretazione visiva; che si tratti del riconoscimento della segnaletica stradale per un sistema di guida autonoma, un’anomalia su una lastra ecc., e la gestione dei disastri non fa alcuna eccezione.

Computer Vision Machine Learning Workflow

Grazie ai progressi dell’ingegneria informatica, per avere ad esempio un sistema in grado di rilevare e classificare le aree a rischio inondazioni, basta che gli esperti nella valutazione del rischio idrogeologico preparino solo un insieme sufficiente d’immagini esempio (training set), e il sistema imparerà a riconoscerle autonomamente.

Immagini satellitari e maschera inondazioni.

Con le capacità computazionali dei moderni sistemi server per processare i dati raccolti dai satelliti, unita alla potenza dell’intelligenza artificiale orientata all’analisi visiva, le analisi possono essere fatte su scala planetaria, offrendo così un contributo immenso nel mitigare l’impatto dei disastri naturali in maniera proattiva, salvando così vite umane e strutture.

Schema monitoraggio satellitare integrato con l’intelligenza artificiale.

La visione artificiale, in sinergia con i dati raccolti dai satelliti, può consentire di svolgere con più prontezza e in maniera estremamente più approfondita e accurata, cose come:

  • rilevare le aree soggette a rischio inondazioni (come già menzionato);
  • analizzare la superficie dell’oceano alla ricerca di segni di tsunami, come modelli o spostamenti insoliti delle onde;
  • monitorare il movimento e lo sviluppo di uragani, tifoni e cicloni;
  • valutare la gravità degli eventi vulcanici e il loro potenziale impatto sulle comunità vicine;
  • monitorare i cambiamenti nella vegetazione e fare stime dei livelli di umidità del suolo e eventuali rischi di siccità.
IN CIELO E IN TERRA

L’analisi delle immagini tramesse da satelliti in orbita è affascinante e suggestiva, ma non è l’unico approccio, e il monitoraggio al suolo non è meno importante. In particolare l’utilizzo di sistemi “edge” (un modello di calcolo distribuito nel quale l’elaborazione dei dati avviene il più vicino possibile a dove i dati vengono generati), consente di avere una rete di monitoraggio in tempo reale più efficiente e robusta (la comunicazione su server a grandi distanze, durante le catastrofi potrebbe essere infatti compromessa).

Differenza tra approccio edge e on-premise

Alcuni possibili casi d’uso sono ad esempio i seguenti:

  • Previsione e monitoraggio delle frane: dispositivi edge possono monitorare le regioni collinari o montuose soggette a frane. La visione artificiale può rilevare segni di erosione del suolo, movimenti di rocce o accumulo di detriti. Queste informazioni possono aiutare le autorità a emettere avvisi ed evacuare temporaneamente le aree vulnerabili.
  • Avviso e prevenzione valanghe: telecamere smart impiegate nelle zone montane, possono rilevare le condizioni del manto nevoso ed eventuali segni di instabilità, e produrre previsioni del rischio di valanghe. Queste informazioni possono attivare avvisi e guidare il processo decisionale per la chiusura delle zone pericolose con la dovuta prontezza.
  • Rilevamento danni strutturali: in seguito a scosse di terremoto, strutture civili possono subire danni rilevabili dall’analisi visiva, come crepe e cedimenti, questi possono essere segnalati in tempo reale per prendere adeguate misure, come ad esempio il blocco del transito su viadotti compromessi.
  • Gestione delle inondazioni urbane: nelle aree urbane i dispositivi edge possono monitorare i sistemi di drenaggio e identificare i blocchi, e rilevare strade e sottopassi allagati in tempo reale. Questi dati possono aiutare le autorità locali a reindirizzare il traffico, o installare sistemi di pompaggio ove appropriato per gestire le aree soggette a inondazioni.
  • Prevenzione degli incendi: telecamere provviste di sistemi di visione artificiale, possono rilevare i primi segnali di rischio di incendi, come vegetazione secca e probabili fattori scatenanti, come mozziconi di sigaretta o fuochi da campo. Queste informazioni possono essere utilizzate per la prevenzione incendi proattiva, e campagne di sensibilizzazione del pubblico. Inoltre qualora ci sia già un principio d’incendio, può essere immediatamente rilevato così da poter essere spento prima di divampare su vaste aree.
  • Ricerca e salvataggio: in seguito a disastri come terremoti o crolli di edifici, i dispositivi edge siano essi fissi o mobili (come ad esempio droni autonomi), possono essere utilizzati per localizzare i sopravvissuti. La visione artificiale può infatti identificare segni di vita, come forme o movimenti umani nei detriti. Ciò ottimizzerebbe il processo di ricerca e salvataggio, aumentando le possibilità di sopravvivenza delle vittime da soccorrere.

La sinergia ottenibile tramite i dati raccolti sia via satellite che localmente e la visione artificiale nel monitoraggio del rischio di catastrofi, non solo migliora la velocità di risposta, ma aiuta anche a ottimizzare l’allocazione delle risorse e il processo decisionale, consentendo così di salvare vite umane e riducendo al minimo i danni durante le situazioni critiche.

, , , , ,

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Entra in contatto

Compila il form con il tuo messaggio

Translate »