I neuroscienziati di Chicago hanno scoperto che adattare un meccanismo cerebrale può migliorare la capacità delle reti neurali artificiali di apprendere più attività. Credito:istockphoto.com
Dietro la maggior parte delle odierne tecnologie di intelligenza artificiale, dalle auto a guida autonoma al riconoscimento facciale e agli assistenti virtuali, si trovano reti neurali artificiali. Anche se vagamente basato sul modo in cui i neuroni comunicano nel cervello, questi sistemi di "apprendimento profondo" rimangono incapaci di molte funzioni di base che sarebbero essenziali per i primati e altri organismi.
Però, un nuovo studio dei neuroscienziati dell'Università di Chicago ha scoperto che l'adattamento di un noto meccanismo cerebrale può migliorare notevolmente la capacità delle reti neurali artificiali di apprendere più compiti ed evitare la persistente sfida dell'intelligenza artificiale del "dimenticamento catastrofico". Lo studio, pubblicato in Atti dell'Accademia Nazionale delle Scienze , fornisce un esempio unico di come la ricerca neuroscientifica può informare nuove strategie informatiche, e, al contrario, come la tecnologia AI può aiutare gli scienziati a comprendere meglio il cervello umano.
Quando combinato con metodi precedentemente riportati per stabilizzare le connessioni sinaptiche nelle reti neurali artificiali, il nuovo algoritmo ha consentito alle singole reti neurali artificiali di apprendere ed eseguire centinaia di attività con una perdita minima di precisione, potenzialmente consentendo tecnologie di intelligenza artificiale più potenti ed efficienti.
"Intuitivamente, potresti pensare che più attività vuoi che una rete conosca, più grande potrebbe essere la rete, "ha detto David Freedman, professore di neurobiologia all'UChicago. "Ma il cervello suggerisce che probabilmente c'è un modo efficiente di impacchettare molta conoscenza in una rete abbastanza piccola. Quando guardi le parti del cervello coinvolte nelle funzioni cognitive superiori, tendi a trovare che le stesse aree, anche le stesse cellule, partecipare a molte funzioni diverse. L'idea era di trarre ispirazione da ciò che fa il cervello per risolvere le sfide con le reti neurali".
Nelle reti neurali artificiali, "dimenticanza catastrofica" si riferisce alla difficoltà nell'insegnare al sistema a eseguire nuove abilità senza perdere le funzioni precedentemente apprese. Per esempio, se una rete inizialmente addestrata a distinguere tra foto di cani e gatti viene poi riqualificata per distinguere tra cani e cavalli, perderà la sua capacità precedente.
"Se mostri a una rete neurale addestrata una nuova attività, dimenticherà completamente il suo compito precedente, " ha detto Gregory Grant, AB'18, che ora è ricercatore nel laboratorio Freedman. "Dice, 'Non ho bisogno di queste informazioni, ' e lo sovrascrive. È una dimenticanza catastrofica. Succede molto rapidamente; in appena un paio di iterazioni, il tuo compito precedente potrebbe essere completamente cancellato."
Al contrario, il cervello è capace di "apprendimento continuo, "acquisire nuove conoscenze senza eliminare i vecchi ricordi, anche quando gli stessi neuroni vengono utilizzati per più attività. Una strategia che il cervello usa per questa sfida di apprendimento è l'attivazione selettiva di cellule o componenti cellulari per compiti diversi, essenzialmente attivando piccoli, sottoreti sovrapposte per ogni singola competenza, o in contesti diversi.
I ricercatori di UChicago hanno adattato questo meccanismo neuroscientifico alle reti neurali artificiali attraverso un algoritmo chiamato "gate dipendente dal contesto". Per ogni nuovo compito appreso, viene attivato solo un 20% casuale di una rete neurale. Dopo che la rete è stata addestrata su centinaia di compiti diversi, un singolo nodo potrebbe essere coinvolto in decine di operazioni, ma con un insieme unico di pari per ogni singola abilità.
Se combinato con metodi precedentemente sviluppati da ricercatori di Google e Stanford, il gating dipendente dal contesto ha consentito alle reti di apprendere fino a 500 attività con solo una piccola diminuzione della precisione.
"Era un po' sorprendente che qualcosa di così semplice funzionasse così bene, " ha detto Nicolas Masse, un ricercatore post-dottorato nel laboratorio Freedman. "Ma con questo metodo, una rete di dimensioni abbastanza medie può essere suddivisa in un sacco di modi per essere in grado di apprendere molte attività diverse se eseguita correttamente."
Come tale, l'approccio ha probabilmente un grande potenziale nel settore in crescita dell'IA, dove le aziende che sviluppano veicoli autonomi, la robotica e altre tecnologie intelligenti devono racchiudere complesse capacità di apprendimento in computer di livello consumer. Il team di UChicago sta attualmente lavorando con il Polsky Center for Entrepreneurship and Innovation per esplorare le opzioni di commercializzazione dell'algoritmo.
La ricerca computazionale avvantaggia anche l'attenzione originale del laboratorio sulla migliore comprensione del cervello dei primati registrando la sua attività mentre gli animali imparano e si comportano. Strategie di modellazione e test che consentono l'apprendimento, Attenzione, l'elaborazione sensoriale e altre funzioni in un computer possono motivare e suggerire nuovi esperimenti biologici che sondano i meccanismi dell'intelligenza sia naturali che artificiali, hanno detto i ricercatori.
"Aggiungere questa componente di ricerca al laboratorio ha davvero aperto molte porte in termini di possibilità di pensare a nuovi tipi di problemi, nuovi tipi di argomenti e problemi neuroscientifici che normalmente non possiamo affrontare utilizzando le tecniche sperimentali attualmente a nostra disposizione in laboratorio, " ha detto Freedman. "Speriamo che questo sia il punto di partenza per ulteriori lavori in laboratorio sia per identificare quei principi che per aiutare a creare reti artificiali che continuino ad apprendere ea costruire sulla conoscenza precedente".