Immagine pulita; in alto a destra:conservazione dell'1% delle informazioni; in basso a sinistra:restauro mediante sfocatura e schiaritura; in basso a destra:restauro tramite deep learning. Credito:Laboratorio di ricerca dell'esercito
Gli scienziati del laboratorio di ricerca aziendale dell'esercito degli Stati Uniti stanno sviluppando un nuovo algoritmo che potrebbe migliorare l'identificazione di immagini e audio per la raccolta di informazioni sul campo di battaglia.
Il Dr. Michael S. Lee, scienziato del Laboratorio di ricerca dell'esercito degli Stati Uniti, e i suoi collaboratori stanno sviluppando un algoritmo di apprendimento profondo chiamato autoencoder scorciatoia in grado di ripristinare singole clip audio e immagini danneggiate da vari tipi di rumore casuale.
Ciò che distingue il loro lavoro dagli studi precedenti è che hanno migliorato l'applicabilità ai segnali 1-D (ad es. linguaggio umano), e stanno testando contro sorgenti di rumore più forti di quelle normalmente considerate, cioè., rapporti rumore/segnale oltre 1.0.
"Il deep learning è noto per essere in grado di rilevare con precisione gli oggetti nelle immagini, ma è anche in grado di sintetizzare dati dall'aspetto realistico, come osservato nel popolare FaceApp di recente, " Lee ha detto. "Nel nostro lavoro, utilizziamo il deep learning per ricostruire un'immagine sulla base di informazioni di input limitate, Per esempio, mantenendo solo l'1% dei canali pixel."
Lee ha detto che il modello del suo team è stato addestrato con molti dati su come appaiono le altre immagini reali, e una variante del loro modello di immagine può essere utilizzata per ricostruire il parlato umano da segnali audio rumorosi anche quando il rumore è molto più forte del segnale.
Secondo Lee, le applicazioni dell'esercito di destinazione sono numerose, comprese le intercettazioni, demodulare le comunicazioni in presenza di forti disturbatori e percezione di oggetti in immagine/video oscurati intenzionalmente, dall'oscurità (poca luce) o da eventi meteorologici come nebbia e pioggia.
"Nel breve periodo, questa tecnologia potrebbe fornire una funzione "Zoom/Enhance" per gli analisti di intelligence, " Lee ha detto. "A lungo termine, questo tipo di tecnologia può essere perfettamente integrata nell'hardware di una fotocamera per una migliore qualità dell'immagine in vari scenari come scarsa illuminazione e nebbia".
Oltre alle applicazioni dell'esercito, Lee ha osservato che anche il settore commerciale potrebbe trarre vantaggio da questa tecnologia.
"In ambienti a bassa larghezza di banda, come aree lontane da ripetitori cellulari, algoritmi come il nostro potrebbero fornire telefonate più chiare, "Lee ha detto. "Le auto a guida autonoma possono trarre vantaggio da questa tecnologia in scenari meteorologici estremi come pioggia e nebbia per dedurre quali oggetti sono davanti. Le videocamere commerciali saranno in grado di funzionare in condizioni di scarsa illuminazione con frame rate più elevati e/o tempi di esposizione inferiori".
Questo lavoro affronta le sfide all'interno del Network Command, Controllo, Team interfunzionale di comunicazione e intelligence.
"Parte della missione di CCDC ARL è esplorare il regno di ciò che è possibile, " disse Lee. "Ecco, mostriamo che al di là del rilevamento e della classificazione, l'apprendimento automatico può essere utilizzato per chiarire segnali e immagini deboli e/o rumorosi."
Muoversi nel futuro, Lee e i suoi colleghi vorrebbero esplorare come funzionerà questo metodo su tipi di dati al di là del linguaggio umano e delle immagini ottiche, come i dati dei sensori dell'ambiente fisico e la comunicazione wireless.