Credito:Il Distretto
I ricercatori di Cambridge stanno sperimentando una forma di apprendimento automatico che inizia con poche conoscenze pregresse e impara continuamente dal mondo che lo circonda.
Al centro dello schermo c'è un minuscolo monociclo. L'animazione inizia, il monociclo barcolla in avanti e cade. Questa è la prova n. Ora è il processo n. 11 e c'è un cambiamento:un ritardo quasi impercettibile in autunno, forse un tentativo di raddrizzarsi prima dell'inevitabile crollo. "È imparare dall'esperienza, " annuisce il professor Carl Edward Rasmussen.
Dopo un minuto, il monociclo oscilla dolcemente avanti e indietro mentre gira in tondo. Ha capito come funziona questo sistema estremamente instabile e ha raggiunto il suo obiettivo. "Il monociclo inizia senza sapere cosa sta succedendo - gli è stato solo detto che il suo obiettivo è quello di rimanere al centro in modo verticale. Quando inizia a cadere avanti e indietro, comincia a imparare, " spiega Rasmussen, che guida il Computational and Biological Learning Lab del Dipartimento di Ingegneria. "Avevamo un vero robot monociclo ma in realtà era piuttosto pericoloso - era forte - e quindi ora usiamo i dati di quello reale per eseguire simulazioni, e abbiamo una versione mini."
Rasmussen utilizza il monociclo autodidatta per dimostrare come una macchina può avviarsi con pochissimi dati e apprendere in modo dinamico, migliorare la sua conoscenza ogni volta che riceve nuove informazioni dal suo ambiente. Le conseguenze della regolazione del suo slancio motorizzato e dell'equilibrio aiutano il monociclo a imparare quali movimenti sono stati importanti per aiutarlo a rimanere in posizione eretta al centro.
"Questo è proprio come imparerebbe un umano, " spiega il professor Zoubin Ghahramani, che guida il Machine Learning Group nel Dipartimento di Ingegneria. "Non iniziamo a sapere tutto. Impariamo le cose in modo incrementale, da pochi esempi, e sappiamo quando non siamo ancora fiduciosi nella nostra comprensione."
Il team di Ghahramani sta sperimentando un ramo dell'intelligenza artificiale chiamato apprendimento automatico continuo. Spiega che molte delle attuali forme di apprendimento automatico si basano su reti neurali e modelli di apprendimento profondo che utilizzano algoritmi complessi per trovare modelli in vasti set di dati. Le applicazioni comuni includono la traduzione di frasi in lingue diverse, riconoscere persone e oggetti nelle immagini, e rilevare spese insolite su carte di credito.
"Questi sistemi devono essere addestrati su milioni di esempi etichettati, che richiede tempo e molta memoria del computer, " spiega. "E hanno dei difetti. Quando li testi al di fuori dei dati su cui sono stati addestrati, tendono a funzionare male. Auto senza pilota, ad esempio, possono essere addestrati su un enorme set di dati di immagini ma potrebbero non essere in grado di generalizzare in condizioni di nebbia.
"Peggio di così, gli attuali sistemi di deep learning a volte possono darci con sicurezza risposte sbagliate, e forniscono informazioni limitate sul motivo per cui sono giunti a decisioni particolari. Questo è ciò che mi dà fastidio. Va bene sbagliare, ma non va bene sbagliare con sicurezza".
La chiave è come gestisci l'incertezza:l'incertezza dei dati disordinati e mancanti, e l'incertezza di prevedere cosa potrebbe accadere dopo. "L'incertezza non è una buona cosa - è qualcosa che combatti, ma non puoi combatterlo ignorandolo, "dice Rasmussen. "Ci interessa rappresentare l'incertezza".
Si scopre che c'è una teoria matematica che ti dice cosa fare. È stato descritto per la prima volta dallo statistico inglese del XVIII secolo Thomas Bayes. Il gruppo di Ghahramani è stato uno dei primi ad adottare l'intelligenza artificiale della teoria della probabilità bayesiana, che descrive come la probabilità che si verifichi un evento (come rimanere in posizione eretta al centro) viene aggiornata man mano che diventano disponibili ulteriori prove (come la decisione presa l'ultima volta dal monociclo prima di cadere).
Il Dr. Richard Turner spiega come la regola di Bayes gestisce l'apprendimento continuo:"il sistema prende le sue conoscenze pregresse, lo pondera per quanto accurata pensa che la conoscenza sia, poi lo combina con nuove prove che sono anche appesantite dalla sua accuratezza.
"Questo è molto più efficiente in termini di dati rispetto al modo in cui funziona una rete neurale standard, " aggiunge. "Le nuove informazioni possono far sì che una rete neurale dimentichi tutto ciò che ha appreso in precedenza - chiamata dimenticanza catastrofica - il che significa che deve rivedere da capo tutti i suoi esempi etichettati, come riapprendere le regole e il glossario di una lingua ogni volta che impari una nuova parola.
"Il nostro sistema non ha bisogno di rivisitare tutti i dati che ha visto prima, proprio come gli esseri umani non ricordano tutte le esperienze passate; invece apprendiamo un riepilogo e lo aggiorniamo man mano che le cose vanno avanti". Ghahramani aggiunge:"La cosa grandiosa dell'apprendimento automatico bayesiano è che il sistema prende decisioni basate sull'evidenza - a volte è pensato come "automazione del metodo scientifico" - e poiché è basato sulla probabilità, può dirci quando è fuori dalla sua zona di comfort."
Ghahramani è anche Chief Scientist di Uber. Vede un futuro in cui le macchine imparano continuamente non solo individualmente ma come parte di un gruppo. "Che si tratti di aziende come Uber che ottimizzano domanda e offerta, o veicoli autonomi che si avvisano a vicenda di ciò che sta accadendo sulla strada, o robot che lavorano insieme per sollevare un carico pesante:cooperazione, e a volte concorrenza, nell'intelligenza artificiale aiuterà a risolvere i problemi in una vasta gamma di settori."
Una delle frontiere davvero entusiasmanti è essere in grado di modellare risultati probabili in futuro, come descrive Turner. "Il ruolo dell'incertezza diventa molto chiaro quando iniziamo a parlare di previsione di problemi futuri come il cambiamento climatico".
Turner sta lavorando con gli scienziati del clima Dr. Emily Shuckburgh e Dr. Scott Hosking al British Antarctic Survey per chiedere se le tecniche di apprendimento automatico possono migliorare la comprensione dei rischi del cambiamento climatico in futuro.
"Dobbiamo quantificare il rischio futuro e gli impatti delle condizioni meteorologiche estreme su scala locale per informare le risposte politiche ai cambiamenti climatici, " spiega Shuckburgh. "Le tradizionali simulazioni al computer del clima ci danno una buona comprensione delle condizioni climatiche medie. Quello che miriamo a fare con questo lavoro è combinare quella conoscenza con i dati osservativi dai satelliti e da altre fonti per ottenere una migliore gestione, Per esempio, il rischio di eventi meteorologici a bassa probabilità ma ad alto impatto”.
"In realtà è un'affascinante sfida di apprendimento automatico, "dice Turner, che sta aiutando a identificare quale area della modellazione climatica è più suscettibile di utilizzare la probabilità bayesiana. "I dati sono estremamente complessi, e talvolta mancanti e senza etichetta. Le incertezze sono all'ordine del giorno." Un elemento significativo di incertezza è il fatto che le previsioni si basano sulla nostra futura riduzione delle emissioni, la cui estensione è ancora sconosciuta.
"Una parte interessante di questo per i responsabili politici, a parte il valore di previsione, è che puoi immaginare di avere una macchina che apprende continuamente dalle conseguenze delle strategie di mitigazione come la riduzione delle emissioni - o la loro mancanza - e adegua le sue previsioni di conseguenza, "aggiunge Turner.
Quello che sta descrivendo è una macchina che – come il monociclo – si nutre di incertezza, impara continuamente dal mondo reale, e valuta e poi rivaluta tutti i possibili risultati. Quando si parla di clima, però, è anche una macchina di tutti i possibili futuri.