Aleksander Madry è un leader nel campo emergente della costruzione di garanzie nell'intelligenza artificiale, che è quasi diventato un ramo del machine learning a sé stante. Credito:CSAIL
Gli algoritmi di apprendimento automatico ora sono alla base di gran parte del software che utilizziamo, aiutandoci a personalizzare i nostri feed di notizie e a finire i nostri pensieri prima di aver finito di digitare. Ma man mano che l'intelligenza artificiale si integra ulteriormente nella vita quotidiana, le aspettative sono aumentate. Prima che i sistemi autonomi ottengano completamente la nostra fiducia, dobbiamo sapere che sono affidabili nella maggior parte delle situazioni e possono resistere alle interferenze esterne; in termini ingegneristici, che sono robusti. Dobbiamo anche capire il ragionamento dietro le loro decisioni; che sono interpretabili.
Aleksander Madry, un professore associato di informatica presso il MIT e un membro della facoltà principale dell'iniziativa Trustworthy AI di Computer Science and Artificial Intelligence Lab (CSAIL), paragona l'intelligenza artificiale a un coltello affilato, uno strumento utile ma potenzialmente pericoloso che la società deve imparare a maneggiare correttamente. Madry ha recentemente parlato al Simposio su Robust del MIT, IA interpretabile, un evento co-sponsorizzato dal MIT Quest for Intelligence e CSAIL, e si è tenuto il 20 novembre al Singleton Auditorium. Il simposio è stato progettato per mostrare il nuovo lavoro del MIT nell'area della costruzione di garanzie nell'intelligenza artificiale, che è quasi diventato un ramo del machine learning a sé stante. Sei docenti hanno parlato della loro ricerca, 40 studenti hanno presentato poster, e Madry ha aperto il simposio con un discorso dal titolo appropriato, "Robustezza e interpretabilità". Abbiamo parlato con Madry, leader in questo settore emergente, su alcune delle idee chiave emerse durante l'evento.
D:L'IA deve gran parte dei suoi recenti progressi al deep learning, un ramo dell'apprendimento automatico che ha notevolmente migliorato la capacità degli algoritmi di individuare modelli nel testo, immagini e suoni, dandoci assistenti automatizzati come Siri e Alexa, tra l'altro. Ma i sistemi di deep learning rimangono vulnerabili in modi sorprendenti:inciampano quando incontrano esempi leggermente sconosciuti nel mondo reale o quando un utente malintenzionato gli fornisce immagini leggermente alterate. In che modo tu e gli altri state cercando di rendere l'IA più robusta?
R:Fino a poco tempo fa, I ricercatori di intelligenza artificiale si sono concentrati semplicemente sull'ottenere algoritmi di apprendimento automatico per eseguire attività di base. Raggiungere prestazioni anche nella media è stata una sfida importante. Ora che le prestazioni sono migliorate, l'attenzione si è spostata sull'ostacolo successivo:migliorare le prestazioni nel caso peggiore. La maggior parte della mia ricerca si concentra sull'affrontare questa sfida. Nello specifico, Lavoro allo sviluppo di sistemi di apprendimento automatico di nuova generazione che saranno abbastanza affidabili e sicuri per applicazioni mission-critical come auto a guida autonoma e software che filtrano i contenuti dannosi. Attualmente stiamo costruendo strumenti per addestrare i sistemi di riconoscimento degli oggetti per identificare cosa sta succedendo in una scena o in un'immagine, anche se le immagini inviate al modello sono state manipolate. Stiamo anche studiando i limiti di sistemi che offrono garanzie di sicurezza e affidabilità. Quanta affidabilità e sicurezza possiamo incorporare nei modelli di apprendimento automatico, e quali altre caratteristiche potremmo aver bisogno di sacrificare per arrivarci?
Il mio collega Luca Daniel, che ha anche parlato, sta lavorando su un aspetto importante di questo problema:sviluppare un modo per misurare la resilienza di un sistema di deep learning in situazioni chiave. Le decisioni prese dai sistemi di deep learning hanno importanti conseguenze, ed è quindi essenziale che gli utenti finali siano in grado di misurare l'affidabilità di ciascuno degli output del modello. Un altro modo per rendere un sistema più robusto è durante il processo di formazione. Nel suo discorso, "Robustezza nei GAN e nell'ottimizzazione della scatola nera, " Stefanie Jegelka ha mostrato come l'allievo in una rete generativa contraddittoria, o GAN, può essere fatto per resistere alle manipolazioni al suo input, portando a prestazioni molto migliori.
D:Le reti neurali che alimentano l'apprendimento profondo sembrano imparare quasi senza sforzo:fornisci loro abbastanza dati e possono superare gli umani in molti compiti. E ancora, abbiamo anche visto con quanta facilità possono fallire, con almeno tre casi ampiamente pubblicizzati di auto a guida autonoma che si sono schiantate e hanno ucciso qualcuno. Le applicazioni dell'IA nell'assistenza sanitaria non sono ancora sotto lo stesso livello di controllo, ma la posta in gioco è altrettanto alta. David Sontag ha concentrato il suo discorso sulle conseguenze spesso di vita o di morte quando un sistema di intelligenza artificiale manca di robustezza. Quali sono alcune delle bandiere rosse quando si addestra un'intelligenza artificiale sulle cartelle cliniche dei pazienti e altri dati osservativi?
R:Questo risale alla natura delle garanzie e ai presupposti sottostanti che costruiamo nei nostri modelli. Spesso assumiamo che i nostri set di dati di addestramento siano rappresentativi dei dati del mondo reale su cui testiamo i nostri modelli, un'ipotesi che tende a essere troppo ottimistica. Sontag ha fornito due esempi di presupposti errati inseriti nel processo di formazione che potrebbero portare un'intelligenza artificiale a fornire una diagnosi sbagliata o a raccomandare un trattamento dannoso. Il primo si è concentrato su un enorme database di raggi X dei pazienti rilasciato lo scorso anno dal National Institutes of Health. Il set di dati avrebbe dovuto apportare grandi miglioramenti alla diagnosi automatizzata delle malattie polmonari fino a quando un radiologo scettico non ha esaminato più da vicino e ha trovato errori diffusi nelle etichette diagnostiche delle scansioni. Un'intelligenza artificiale addestrata alle scansioni del torace con molte etichette errate avrà difficoltà a generare diagnosi accurate.
A second problem Sontag cited is the failure to correct for gaps and irregularities in the data due to system glitches or changes in how hospitals and health care providers report patient data. Per esempio, a major disaster could limit the amount of data available for emergency room patients. If a machine-learning model failed to take that shift into account its predictions would not be very reliable.
Q:You've covered some of the techniques for making AI more reliable and secure. What about interpretability? What makes neural networks so hard to interpret, and how are engineers developing ways to peer beneath the hood?
A:Understanding neural-network predictions is notoriously difficult. Each prediction arises from a web of decisions made by hundreds to thousands of individual nodes. We are trying to develop new methods to make this process more transparent. In the field of computer vision one of the pioneers is Antonio Torralba, director of The Quest. In his talk, he demonstrated a new tool developed in his lab that highlights the features that a neural network is focusing on as it interprets a scene. The tool lets you identify the nodes in the network responsible for recognizing, dire, a door, from a set of windows or a stand of trees. Visualizing the object-recognition process allows software developers to get a more fine-grained understanding of how the network learns.
Another way to achieve interpretability is to precisely define the properties that make the model understandable, and then train the model to find that type of solution. Tommi Jaakkola showed in his talk, "Interpretability and Functional Transparency, " that models can be trained to be linear or have other desired qualities locally while maintaining the network's overall flexibility. Explanations are needed at different levels of resolution much as they are in interpreting physical phenomena. Of course, there's a cost to building guarantees into machine-learning systems—this is a theme that carried through all the talks. But those guarantees are necessary and not insurmountable. The beauty of human intelligence is that while we can't perform most tasks perfectly, as a machine might, we have the ability and flexibility to learn in a remarkable range of environments.
Questa storia è stata ripubblicata per gentile concessione di MIT News (web.mit.edu/newsoffice/), un popolare sito che copre notizie sulla ricerca del MIT, innovazione e didattica.