Credito:CC0 Dominio Pubblico
Per anni, le persone che sviluppano l'intelligenza artificiale hanno tratto ispirazione da ciò che si sapeva del cervello umano, e di conseguenza ha riscosso molto successo. Ora, AI sta iniziando a restituire il favore.
Sebbene non espressamente progettato per farlo, alcuni sistemi di intelligenza artificiale sembrano imitare il funzionamento interno del nostro cervello più da vicino di quanto si pensasse in precedenza, suggerendo che sia l'intelligenza artificiale che le nostre menti sono convergenti sullo stesso approccio alla risoluzione dei problemi. Se è così, osservare semplicemente l'intelligenza artificiale al lavoro potrebbe aiutare i ricercatori a svelare alcuni dei misteri più profondi del cervello.
"C'è una vera connessione lì, " ha detto Daniel Yamins, assistente professore di psicologia. Ora, Yamin, che è anche uno studioso di facoltà dello Stanford Neurosciences Institute e membro di Stanford Bio-X, e il suo laboratorio stanno costruendo su questa connessione per produrre teorie migliori sul cervello:come percepisce il mondo, come si sposta in modo efficiente da un compito all'altro e forse, un giorno, come pensa.
Un problema di visione per l'IA
L'intelligenza artificiale ha preso in prestito dal cervello fin dai suoi primi giorni, quando scienziati informatici e psicologi hanno sviluppato algoritmi chiamati reti neurali che imitavano vagamente il cervello. Questi algoritmi sono stati spesso criticati per essere biologicamente non plausibili:i "neuroni" nelle reti neurali erano, Dopotutto, semplificazioni grossolane dei veri neuroni che compongono il cervello. Ma agli informatici non interessava la plausibilità biologica. Volevano solo sistemi che funzionassero, quindi hanno esteso i modelli di rete neurale in qualsiasi modo rendessero l'algoritmo più in grado di svolgere determinati compiti, culminando in quello che oggi viene chiamato deep learning.
Poi è arrivata una sorpresa. Nel 2012, I ricercatori di intelligenza artificiale hanno dimostrato che una rete neurale di deep learning potrebbe imparare a identificare gli oggetti nelle immagini così come un essere umano, che ha portato i neuroscienziati a chiedersi:come ha fatto l'apprendimento profondo?
Allo stesso modo in cui fa il cervello, come risulta. Nel 2014, Yamins e colleghi hanno dimostrato che un sistema di apprendimento profondo che ha imparato a identificare gli oggetti nelle immagini, quasi quanto gli umani, lo ha fatto in un modo che imitava da vicino il modo in cui il cervello elabora la visione. Infatti, i calcoli eseguiti dal sistema di apprendimento profondo corrispondevano all'attività nei circuiti di elaborazione della vista del cervello sostanzialmente meglio di qualsiasi altro modello di quei circuiti.
Più o meno nello stesso periodo, altri gruppi hanno fatto osservazioni simili su parti della visione del cervello e sui circuiti di elaborazione del movimento, suggerendo che, dato lo stesso tipo di problema, l'apprendimento profondo e il cervello avevano evoluto modi simili per trovare una soluzione. Più recentemente, Yamins e colleghi hanno dimostrato osservazioni simili nel sistema uditivo del cervello.
Da una parte, non è una grande sorpresa. Sebbene i dettagli tecnici differiscano, L'organizzazione concettuale del deep learning è mutuata direttamente da ciò che i neuroscienziati già sapevano sull'organizzazione dei neuroni nel cervello.
Ma il successo dell'approccio di Yamins e colleghi e di altri simili dipende altrettanto da un altro, scelta più sottile. Piuttosto che cercare di far sì che il sistema di apprendimento profondo corrisponda direttamente a ciò che fa il cervello a livello dei singoli neuroni, come avevano fatto molti ricercatori, Yamins e colleghi hanno semplicemente dato al loro sistema di deep learning lo stesso problema:identificare gli oggetti nelle immagini. Solo dopo aver risolto quel problema, i ricercatori hanno confrontato il modo in cui l'apprendimento profondo e il cervello sono arrivati alle loro soluzioni - e solo allora è diventato chiaro che i loro metodi erano essenzialmente gli stessi.
"La corrispondenza tra i modelli e il sistema visivo non è del tutto casuale, perché l'uno ha direttamente ispirato l'altro, " disse Daniele Orso, un ricercatore post-dottorato nel gruppo di Yamins, "ma è comunque notevole che sia una buona corrispondenza così com'è."
Una probabile ragione per questo, Orso ha detto, è la selezione naturale e l'evoluzione. "Fondamentalmente, il riconoscimento degli oggetti era un compito molto importante dal punto di vista evolutivo" per gli animali da risolvere - e risolvere bene, se volevano capire la differenza tra qualcosa che potevano mangiare e qualcosa che poteva mangiarli. Forse provare a farlo come fanno gli umani e altri animali, tranne che con un computer, ha portato i ricercatori a trovare essenzialmente la stessa soluzione.
Cerca ciò che il cervello cerca
Qualunque sia la ragione di fondo, le intuizioni raccolte dallo studio del 2014 hanno portato a quelli che Yamins chiama modelli del cervello mirati:piuttosto che provare a modellare direttamente l'attività neurale nel cervello, invece allena l'intelligenza artificiale per risolvere i problemi che il cervello deve risolvere, quindi utilizzare il sistema di intelligenza artificiale risultante come modello del cervello. Dal 2014, Yamins e collaboratori hanno perfezionato il modello originale mirato dei circuiti visivi del cervello e hanno esteso il lavoro in nuove direzioni, compresa la comprensione dei circuiti neurali che elaborano gli input dai baffi dei roditori.
Nel progetto forse più ambizioso, Yamins e il collega post-dottorato Nick Haber stanno studiando come i bambini imparano a conoscere il mondo che li circonda attraverso il gioco. I loro bambini – in realtà simulazioni al computer relativamente semplici – sono motivati solo dalla curiosità. Esplorano i loro mondi muovendosi e interagendo con gli oggetti, imparano mentre vanno a prevedere cosa succede quando colpiscono le palle o semplicemente girano la testa. Allo stesso tempo, il modello impara a prevedere quali parti del mondo non comprende, poi cerca di capirli.
Mentre la simulazione al computer prende vita – per così dire – senza sapere essenzialmente nulla del mondo, alla fine scopre come classificare oggetti diversi e persino come romperne due o tre insieme. Sebbene i confronti diretti con l'attività neurale dei bambini possano essere prematuri, il modello potrebbe aiutare i ricercatori a capire meglio come i bambini usano il gioco per conoscere il loro ambiente, ha detto Haber.
Dall'altra parte dello spettro, modelli ispirati all'intelligenza artificiale potrebbero aiutare a risolvere un enigma sulla struttura fisica del cervello, disse Eshed Margalit, uno studente laureato in neuroscienze. Man mano che i circuiti visivi nel cervello dei bambini si sviluppano, formano patch specifiche – gruppi fisici di neuroni – che rispondono a diversi tipi di oggetti. Per esempio, gli umani e gli altri primati formano tutti un cerotto sul viso che è attivo quasi esclusivamente quando guardano i volti.
Esattamente perché il cervello forma quelle chiazze, Margherita ha detto, non è chiaro. Il cervello non ha bisogno di un cerotto per riconoscere i volti, Per esempio. Ma basandosi su modelli di intelligenza artificiale come quello di Yamins che già risolvono le attività di riconoscimento degli oggetti, "Ora possiamo provare a modellare quella struttura spaziale e porre domande sul perché il cervello è strutturato in questo modo e quali vantaggi potrebbe dare a un organismo, " ha detto Margherita.
Chiusura del ciclo
Ci sono anche altri problemi da affrontare, in particolare come apprendono i sistemi di intelligenza artificiale. Proprio adesso, L'intelligenza artificiale ha bisogno di molta più formazione - e di una formazione molto più esplicita - rispetto agli umani per svolgere anche compiti come il riconoscimento di oggetti, anche se il modo in cui gli umani riescono con così pochi dati rimane poco chiaro.
Un secondo problema è come andare oltre i modelli di visione e altri sistemi sensoriali. "Una volta che hai un'impressione sensoriale del mondo, vuoi prendere decisioni basate su di esso, " Yamins ha detto. "Stiamo cercando di creare modelli di processo decisionale, imparare a prendere decisioni e come ci si interfaccia tra i sistemi sensoriali, processo decisionale e memoria." Yamins sta iniziando ad affrontare queste idee con Kevin Feigelis, uno studente laureato in fisica, chi sta costruendo modelli di intelligenza artificiale che possono imparare a risolvere molti diversi tipi di problemi e passare da un'attività all'altra secondo necessità, qualcosa che pochissimi sistemi di intelligenza artificiale sono in grado di fare.
A lungo termine, Yamins e gli altri membri del suo gruppo hanno affermato che tutti questi progressi potrebbero alimentare sistemi di intelligenza artificiale più capaci, proprio come le precedenti ricerche sulle neuroscienze hanno contribuito a favorire lo sviluppo dell'apprendimento profondo. "Penso che le persone nel campo dell'intelligenza artificiale si stiano rendendo conto che ci sono alcuni ottimi prossimi obiettivi per l'intelligenza artificiale di ispirazione cognitiva, "Haber ha detto, inclusi sistemi come il suo che imparano esplorando attivamente i loro mondi. "La gente sta giocando con queste idee."