Yanzhi Wang, professore assistente di ingegneria elettrica e informatica, ha ideato un modo per eseguire reti neurali profonde su dispositivi mobili come il normale telefono cellulare. Credito:Ruby Wallau/Northeastern University
In che modo un'auto a guida autonoma distingue una persona da un cono stradale? In che modo Spotify sceglie i brani per la mia playlist "Discover Weekly"? Perché il filtro antispam di Gmail è così efficace?
La risposta è un tipo di intelligenza artificiale nota come reti neurali profonde. Queste reti sono molto brave a riconoscere e classificare i dati, ma tendono a richiedere molta potenza di calcolo e memoria per funzionare, troppo per funzionare rapidamente su qualcosa come il tuo smartphone medio.
Ora i ricercatori della Northeastern hanno dimostrato un modo per eseguire reti neurali profonde su uno smartphone o un sistema simile. Usando il loro metodo, le reti possono eseguire attività fino a 56 volte più velocemente di quanto dimostrato nel lavoro precedente, senza perdere la precisione. Presenteranno il loro lavoro a una conferenza sull'intelligenza artificiale il mese prossimo a New York.
"È difficile per le persone ottenere l'esecuzione in tempo reale di reti neurali su uno smartphone o questo tipo di dispositivi mobili, "dice Yanzhi Wang, un assistente professore di ingegneria elettrica e informatica alla Northeastern. "Ma possiamo far funzionare la maggior parte delle applicazioni di deep learning in tempo reale".
Tipicamente, un dispositivo mobile deve essere connesso a Internet per avere accesso a una rete neurale profonda. Il telefono raccoglie dati, ma l'elaborazione viene eseguita su server remoti:ecco perché non puoi parlare con Siri quando il tuo iPhone è in modalità aereo.
Wang e i suoi colleghi hanno escogitato un modo per ridurre le dimensioni del modello di rete neurale e generare automaticamente codice per eseguirlo in modo più efficiente. Questo lavoro potrebbe consentire l'implementazione di reti neurali profonde in dispositivi standard che potrebbero non avere un accesso a Internet coerente. E questo ha usi ben oltre la comunicazione a mani libere con il telefono.
"Ci sono così tante cose che hanno bisogno di intelligenza, " Wang dice. "Dispositivi medici, dispositivi indossabili, sensori, fotocamere intelligenti. Tutti questi, hanno bisogno di qualcosa che migliori il riconoscimento, segmentazione, monitoraggio, sorveglianza, e tante cose, ma attualmente sono limitati."
Yanzhi Wang è un assistente professore di ingegneria elettrica e informatica. Credito:Ruby Wallau/Northeastern University
L'intelligenza artificiale è già utilizzata per migliorare la tecnologia medica negli ospedali. Ci sono molte opportunità per espandere anche gli usi dei dispositivi indossabili, potenzialmente fornire indicazioni per le persone disabili o avvisare pazienti e medici di cambiamenti nel ritmo cardiaco o altri problemi. Ma immagina di perdere un avviso su un potenziale attacco di cuore perché eri in metropolitana e non hai avuto il servizio.
"Per molte delle applicazioni dei dispositivi medici, non possiamo presumere che questo tipo di dispositivo sia sempre connesso a Internet, " dice Wang. "E nel connettersi a Internet, c'è sempre un ritardo significativo. Tutto deve essere calcolato e rispedito indietro".
Quando Wang dice "un ritardo significativo, " sta parlando di frazioni di secondo. Ma questo basta per fare la differenza.
"Per le auto a guida autonoma, tutti i dati devono essere inviati a un data center cloud, poi c'è un ritardo di trasmissione che lo rimanda indietro, " Wang dice. "Forse 0,1 secondi. E questi 0,1 secondi possono causare danni."
Eliminare quella frazione di secondo di ritardo potrebbe salvare delle vite.
Wang osserva inoltre che le reti neurali profonde possono sollevare problemi di privacy, perché le informazioni personali sono condivise sul cloud affinché queste reti funzionino. Elaborazione dei dati in locale, senza inviarlo a server lontani, potrebbe rendere le persone più a loro agio nell'uso di dispositivi alimentati dall'intelligenza artificiale.
"In precedenza, le persone credevano che il deep learning necessitasse di chip dedicati, o potrebbe essere eseguito solo su server nel cloud, " Wang dice. "Questo tipo di assunzione di conoscenza limita l'applicazione del deep learning. Non possiamo sempre fare affidamento sul cloud. Dobbiamo rendere locale, decisioni intelligenti".