Credito:Ray Oranges
La protezione dei cittadini di fronte ai disastri richiede spesso l'adozione di decisioni di vasta portata. Qualsiasi assistenza è benvenuta, inclusa l'intelligenza artificiale.
Gli incendi stanno diventando sempre più fuori controllo, come dimostrato dai recenti eventi in California e in Australia. Eppure i vigili del fuoco continuano a combattere instancabilmente contro le fiamme e al giorno d'oggi hanno a loro disposizione molto di più della semplice acqua e delle ustioni controllate. La digitalizzazione è stata a lungo parte del loro arsenale sotto forma di sistemi di geoinformazione, webcam e droni. Questi sono diventati strumenti chiave nella previsione e nel controllo degli incendi boschivi, tuttavia le enormi quantità di dati che producono spingono rapidamente l'esperienza umana ai suoi limiti. "L'intelligenza artificiale è sempre utile quando hai a che fare con masse di dati, "dice Benjamin Scharte, che dirige il Risk and Resilience Research Team presso il Centro ETH per gli studi sulla sicurezza (CSS). Recentemente, lui e il suo collega Kevin Kohler hanno collaborato per analizzare l'uso dell'IA nella protezione civile.
"Essere in grado di utilizzare algoritmi per fare previsioni è piuttosto eccitante, " dice Kohler. In quale direzione è diretto il fronte del fuoco? Dove dovremmo impostare le prossime ustioni controllate? Analizzando tutti i dati disponibili, Gli strumenti di modellazione basati sull'intelligenza artificiale possono aiutare a rispondere a queste domande. Questi dati potrebbero includere le previsioni del tempo, durata della siccità, direzione del vento e persino la potenziale quantità di carburante disponibile per il fuoco. Le previsioni risultanti possono rendere più efficiente la risposta ai disastri. Nella migliore delle ipotesi, possono anche fungere da forma di prevenzione.
La protezione civile è particolarmente sensibile all'uso dell'IA perché, troppo spesso, è una questione di vita o di morte, e ogni minuto conta. Spesso ci si aspetta che gli esperti prendano decisioni affrettate con conseguenze di vasta portata, quindi sono grati per qualsiasi assistenza che possa sostenere tali decisioni con dati più solidi. In definitiva, però, la qualità di una decisione dipende sempre dalla qualità dei dati. "Per quanto intelligente sia il mio algoritmo, servirà a poco in caso di emergenza se non posso fornirgli i dati giusti per il disastro, "Mette in guardia Kohler.
Anche i dati di altissima qualità non possono mai sostituire completamente l'esperienza acquisita da esperti in molti anni, quindi la questione se un essere umano o una macchina debba prendere la decisione finale è molto complessa. Preso nel suo insieme, l'algoritmo potrebbe plausibilmente produrre una perdita economica inferiore o un minor numero di vittime rispetto alla sua controparte umana, ma può anche prendere decisioni in singoli casi che troviamo inaccettabili. "Mi è chiaro che noi, come società, continuerà a lottare con l'idea di lasciare le decisioni a macchine autonome, " dice Scharte.
Una questione di fiducia
Quindi a che punto potremmo essere disposti a lasciare che una macchina prenda le proprie decisioni? Scharte e Kohler concordano sul fatto che ciò dipenda dal contesto:"La protezione civile a volte è una questione di vita o di morte. Gli esseri umani dovrebbero svolgere un ruolo nel prendere tali decisioni:non è il luogo in cui le macchine prendono decisioni completamente autonome".
Un fattore cruciale è quanta fiducia le persone hanno nell'algoritmo. La fiducia apre la strada all'accettazione, ed entrambi sono migliorati quando siamo in grado di seguire chiaramente ciò che sta facendo un algoritmo. Per esempio, quando i medici comprendono la logica decisionale di un algoritmo, è più probabile che si fidino di esso e lo incorporino nel loro lavoro. Numerosi studi lo hanno confermato, ma Scharte suona una nota di cautela:"La trasparenza e la spiegabilità non sempre aumentano la sicurezza". Ci sono anche casi in cui la trasparenza potrebbe essere uno svantaggio, compresi i rischi causati dall'uomo come la criminalità informatica e il terrorismo. "Se riveli esattamente come un algoritmo rileva modelli di comportamento sospetti, allora gli attori avversari hanno maggiori probabilità di superarlo deliberatamente in astuzia, " avverte Scharte.