• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • L'intelligenza artificiale fonde algoritmi e applicazioni

    Grazie ai progressi nell'intelligenza artificiale e nell'apprendimento automatico, I ricercatori di Princeton stanno costruendo tecnologie nell'assistenza sanitaria, trasporto, energia e molti altri settori. Credito:Daniel Hertzberg

    L'intelligenza artificiale fa già parte della vita quotidiana. Ci aiuta a rispondere a domande come "Questa email è spam?" Identifica gli amici nelle fotografie online, seleziona notizie basate sulla nostra politica e ci aiuta a depositare assegni tramite i nostri telefoni, anche se in modo un po' imperfetto.

    Ma queste applicazioni sono solo l'inizio. Grazie ai progressi dell'informatica, i ricercatori stanno creando nuove capacità che hanno il potenziale per migliorare le nostre vite in modi che dobbiamo ancora immaginare. I ricercatori di Princeton sono in prima linea in questa ricerca, dalle basi teoriche alle nuove app e dispositivi alle considerazioni etiche.

    I tentativi di costruire sistemi intelligenti sono vecchi quanto i computer stessi. I primi sforzi spesso implicavano la programmazione diretta di regole di comportamento in un sistema. Per esempio, i ricercatori potrebbero inserire le leggi del movimento per controllare un braccio robotico. Ma i comportamenti risultanti di solito non sono stati all'altezza.

    Con l'intelligenza artificiale, i computer imparano dall'esperienza. Attraverso "l'apprendimento automatico, "un sottocampo dell'intelligenza artificiale, i computer sono programmati per fare delle scelte, imparare dai risultati, e adeguarsi al feedback dell'ambiente.

    L'apprendimento automatico sta trasformando la borsa di studio in tutto il campus, disse Jennifer Rexford, Gordon Y.S. di Princeton Wu Professore di Ingegneria e presidente del dipartimento di informatica.

    "Princeton ha una lunghissima tradizione di forte lavoro in informatica e matematica, e abbiamo molti reparti che sono semplicemente di prim'ordine, combinato con un'enfasi sul servizio dell'umanità, " Rexford ha detto. "Semplicemente non si ottiene questo ovunque."

    Risultati positivi

    Una sfida della società che le macchine artificialmente intelligenti stanno affrontando è come prendere decisioni migliori in materia di assistenza sanitaria. Barbara Engelhardt, professore associato di informatica, sta creando algoritmi per aiutare i medici ad adottare pratiche che hanno maggiori probabilità di avere esiti positivi per i pazienti.

    Per esempio, quando dovrebbe essere svezzato un paziente da un ventilatore? Utilizzato da un paziente su tre nelle unità di terapia intensiva, un ventilatore è un dispositivo salvavita, ma è invadente, costoso e può diffondere l'infezione. I medici spesso aspettano più a lungo del necessario per rimuovere un paziente da un ventilatore, perché se sbagliano, potrebbero complicare ulteriormente la salute del paziente.

    In collaborazione con i ricercatori del sistema ospedaliero dell'Università della Pennsylvania, Engelhardt e il suo team mirano a spostare l'assistenza ai pazienti da un approccio universale a uno su misura per i singoli pazienti. Il loro algoritmo considera molti fattori del paziente e quindi calcola quando e come rimuovere il paziente dal ventilatore. Prende numerose decisioni, compreso quanto sedativo somministrare prima della procedura e come verificare se il paziente può respirare senza assistenza.

    L'apprendimento automatico potrebbe anche aiutare in situazioni in cui l'assistenza sanitaria umana di alta qualità non è immediatamente disponibile, come con i pazienti in cure palliative, che potrebbe essere monitorato 24 ore su 24 come da uno specialista.

    Insegnamento rafforzativo

    Engelhardt utilizza un approccio di apprendimento automatico chiamato apprendimento per rinforzo, un allontanamento dalla pratica più vecchia ma ancora ampiamente utilizzata di "apprendimento supervisionato, " dove i programmatori forniscono ai computer set di dati di addestramento e chiedono alle macchine di generalizzare a nuove situazioni. Ad esempio, insegnare a un computer a identificare i cani nelle foto, i programmatori forniscono decine di migliaia di immagini, da cui il computer sviluppa le proprie regole per capire se le nuove foto contengono un cane.

    Insegnamento rafforzativo, al contrario, è più simile all'apprendimento per tentativi ed errori che i bambini piccoli usano. Un bambino che cerca di accarezzare il gatto di famiglia e riceve un colpo secco imparerà a stare lontano dai gatti. Allo stesso modo, i computer provano le cose e interpretano i risultati.

    Mengdi Wang, un assistente professore di ricerca operativa e ingegneria finanziaria, studia questo approccio. Ha utilizzato l'apprendimento per rinforzo per limitare il rischio nei portafogli finanziari, aiutare un ospedale locale a prevedere le complicanze nell'intervento di sostituzione del ginocchio, e collaborare con Microsoft Research per produrre dialoghi di qualità.

    Una sfida quando si implementa l'apprendimento per rinforzo è il sovraccarico di dati. I computer non hanno il vantaggio dell'oblio umano, quindi devono elaborare tutti i dati in entrata. In pratica, spesso gli esperti devono intervenire per porre dei limiti al numero di elementi che devono essere considerati.

    "Avere troppe variabili è il collo di bottiglia dell'apprendimento per rinforzo, " disse Wang. "Anche se hai tutte le informazioni del mondo, hai una quantità limitata di potenza di elaborazione."

    Wang ha sviluppato un metodo per aiutare i computer a capire cosa è importante e cosa non è importante. È un algoritmo che riduce la complessità comprimendo matematicamente un'ampia raccolta di possibili stati in un piccolo numero di possibili cluster. L'approccio, che ha sviluppato con Anru Zhang dell'Università del Wisconsin-Madison, utilizza le statistiche e l'ottimizzazione per raggruppare i probabili scenari per ogni fase di un processo decisionale.

    AI in soccorso

    Sebbene l'apprendimento per rinforzo sia potente, non offre garanzie quando un algoritmo si confronta con un nuovo ambiente. Per esempio, un veicolo aereo autonomo (drone) addestrato per eseguire missioni di ricerca e salvataggio in un determinato insieme di ambienti può fallire drammaticamente se schierato in uno nuovo.

    Lo sviluppo di approcci per garantire la sicurezza e le prestazioni dei droni è l'obiettivo di Anirudha Majumdar, un assistente professore di ingegneria meccanica e aerospaziale. A causa della sicurezza e dei limiti tecnologici, la maggior parte dei droni oggi richiede un essere umano per controllare l'imbarcazione utilizzando le sue fotocamere e i suoi sensori. Ma pilotando droni attraverso edifici distrutti, come quelli della centrale elettrica di Fukushima Daiichi, danneggiata dalla radioattività, in Giappone, presenta sfide.

    I veicoli aerei autonomi potrebbero aiutare gli sforzi di ricerca e soccorso in spazi ristretti dove il rischio di errore umano è grande. Majumdar sta esplorando come applicare una serie di strumenti di apprendimento automatico noti come "teoria della generalizzazione" per garantire la sicurezza dei droni in nuovi ambienti. In parole povere, la teoria della generalizzazione fornisce modi per restringere la differenza tra le prestazioni sui dati di addestramento e le prestazioni sui nuovi dati.

    Apprendimento delle lingue

    Insegnare ai computer a riconoscere le forme è una cosa, ma insegnare loro a capire il linguaggio di tutti i giorni è tutt'altra cosa. Per arrivare alla domanda su come il cervello elabora il linguaggio, I ricercatori di Princeton hanno scansionato il cervello dei volontari che hanno guardato gli episodi della serie televisiva della BBC "Sherlock" per vedere cosa sta facendo il cervello mentre il suo proprietario acquisisce nuove informazioni.

    La sfida era come aggregare i risultati di diversi cervelli per identificare le tendenze. Ogni cervello ha una forma leggermente diversa, portando a lievi differenze nelle loro scansioni di risonanza magnetica funzionale (fMRI). "È come mandare mille turisti a scattare una foto alla Torre Eiffel. Ogni foto sarà leggermente diversa a seconda della fotocamera, il punto in cui il turista si è fermato per scattare la foto, e così via, " ha detto Peter Ramadge, il Gordon Y.S. Wu Professore di Ingegneria e direttore del Center for Statistics and Machine Learning. "Serve l'apprendimento automatico per capire cosa è comune alla risposta di tutti i soggetti, " Egli ha detto.

    Ramadge e altri scienziati informatici, tra cui l'allora laureando Kiran Vodrahalli della classe del 2016, ha lavorato con i ricercatori del Princeton Neuroscience Institute per aggregare le scansioni cerebrali utilizzando un metodo per trovare punti in comune chiamato "modello di risposta condivisa". Hanno quindi mappato l'attività cerebrale al dialogo negli episodi utilizzando una tecnica di elaborazione del linguaggio naturale, che estrae il significato dal discorso, sviluppata da Sanjeev Arora, Charles C. Fitzmorris Professore di informatica di Princeton, e la sua squadra.

    Mentre un tipico metodo di riconoscimento vocale richiede un numero enorme di esempi, il nuovo metodo è in grado di trarre significato da una raccolta di parole relativamente piccola, come le poche centinaia trovate nella sceneggiatura dello show televisivo. In un articolo pubblicato sulla rivista NeuroImmagine nel giugno 2017, i ricercatori hanno dimostrato di poter determinare, osservando le scansioni fMRI, quale scena veniva osservata con una precisione di circa il 72%.

    Nella scatola nera

    L'apprendimento automatico ha il potenziale per sbloccare domande a cui gli esseri umani trovano difficile o impossibile rispondere, soprattutto quelli che coinvolgono grandi set di dati. Per domande davvero complesse, i ricercatori hanno sviluppato un metodo chiamato deep learning, ispirato dal cervello umano. Questo metodo si basa su reti neurali artificiali, collezioni di neuroni artificiali che, come vere cellule cerebrali, può ricevere un segnale, elaborarlo, e produrre un output da consegnare al neurone successivo.

    Mentre il deep learning ha avuto successo, i ricercatori stanno ancora scoprendo per quali compiti è più adatto, disse Arora, che ha recentemente fondato un programma in machine learning teorico presso il vicino Institute for Advanced Study. "Il campo ha tratto grande utilità dal trattare l'apprendimento profondo come una scatola nera, " ha detto. "La domanda è cosa vedremo quando apriremo la scatola nera."

    Conseguenze non volute

    Oltre alle ampie questioni etiche sull'uso dell'IA e sulle implicazioni delle macchine intelligenti nella società, le preoccupazioni a breve termine sui sistemi di intelligenza artificiale che sottraggono lavoro alle persone stanno diventando più comuni. Entra Ed Felten, chi sta ricercando politiche per frenare le conseguenze indesiderate dell'IA.

    feltro, il Robert E. Kahn Professor of Computer Science and Public Affairs e direttore del Center for Information Technology Policy di Princeton, è stato vicedirettore della tecnologia degli Stati Uniti alla Casa Bianca di Obama, dove ha guidato iniziative di politica federale sull'intelligenza artificiale e sull'apprendimento automatico.

    Con i ricercatori della New York University, Felten ha esplorato se le preoccupazioni sull'impatto dell'IA sui posti di lavoro e sull'economia possano essere supportate dai dati. I ricercatori hanno utilizzato benchmark standard pubblicati dai ricercatori di intelligenza artificiale. Per il riconoscimento visivo, Per esempio, il team ha valutato quante immagini un algoritmo AI ha classificato correttamente. Felten e i suoi colleghi hanno abbinato questa stima ai set di dati forniti dal Bureau of Labor Statistics.

    La domanda è se l'IA sostituirà i lavoratori, o completare i loro sforzi e portare a opportunità ancora maggiori? La storia mostra che le nuove tecnologie spesso si rivelano vantaggiose per i lavoratori a lungo termine, ma non senza dolori a breve termine per i lavoratori sostituiti dalla tecnologia.

    Mentre alcuni ricercatori pensano che i lavori a bassa qualifica subiranno la più grande minaccia da macchine artificialmente intelligenti, I numeri di Felten suggeriscono il contrario. I piloti e gli avvocati delle compagnie aeree possono essere minacciati dall'automazione almeno quanto la persona dietro il bancone del 7-Eleven locale, Egli ha detto.

    "Cose come la pulizia della casa sono molto difficili da automatizzare, " Felten ha detto. "La persona che fa quel lavoro ha bisogno di prendere molte decisioni contestuali. Quali oggetti sul pavimento sono spazzatura e quali oggetti sul pavimento sono oggetti di valore caduti sul pavimento?"

    Felten e il suo team intendono associare i risultati alle informazioni geografiche, dando una sorta di mappa termica su quali regioni del paese saranno più colpite, per consentire alle aziende e ai governi di prepararsi ai prossimi cambiamenti.

    "Sono un ottimista in quanto penso che ci siano enormi opportunità, " Felten ha detto. "L'intelligenza artificiale porterà a enormi progressi in molte aree diverse. Ma comporta dei rischi, e potremmo facilmente farlo male."


    © Scienza https://it.scienceaq.com