• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Decodifica sperimentale per apparecchi acustici controllati dal cervello, identifica chi vuoi sentire

    L'apparecchio acustico sperimentale controllato dal cervello del Dr. Mesgrani (raffigurato sullo schermo) offre una soluzione promettente al problema dei cocktail party che affligge gli apparecchi acustici di oggi. Credito:Diane Bondareff per Columbia Technology Ventures

    I nostri cervelli hanno una notevole abilità nel cogliere singole voci in un ambiente rumoroso, come un caffè affollato o una strada trafficata della città. Questo è qualcosa che anche gli apparecchi acustici più avanzati fanno fatica a fare. Ma ora gli ingegneri della Columbia stanno annunciando una tecnologia sperimentale che imita la naturale attitudine del cervello a rilevare e amplificare una voce qualsiasi tra tante. Alimentato dall'intelligenza artificiale, questo apparecchio acustico controllato dal cervello funge da filtro automatico, monitorare le onde cerebrali di chi lo indossa e aumentare la voce su cui vogliono concentrarsi.

    Sebbene ancora nelle prime fasi di sviluppo, la tecnologia è un passo significativo verso apparecchi acustici migliori che consentano a chi li indossa di conversare con le persone che li circondano in modo fluido ed efficiente. Questo risultato è descritto oggi in Progressi scientifici .

    "L'area del cervello che elabora il suono è straordinariamente sensibile e potente; può amplificare una voce rispetto alle altre, apparentemente senza sforzo, mentre gli apparecchi acustici di oggi ancora impallidiscono al confronto, " disse Nima Mesgarani, dottorato di ricerca, un investigatore principale al Mortimer B. Zuckerman Mind Brain Behavior Institute della Columbia e autore senior del documento. "Creando un dispositivo che sfrutta il potere del cervello stesso, speriamo che il nostro lavoro porti a miglioramenti tecnologici che consentano alle centinaia di milioni di persone con problemi di udito in tutto il mondo di comunicare con la stessa facilità con cui fanno i loro amici e familiari".

    Gli apparecchi acustici moderni sono eccellenti nell'amplificare il parlato sopprimendo alcuni tipi di rumore di fondo, come il traffico. Ma lottano per aumentare il volume di una singola voce sugli altri. Gli scienziati chiamano questo il problema del cocktail party, prende il nome dalla cacofonia di voci che si fondono durante le feste rumorose.

    "Nei luoghi affollati, come feste, gli apparecchi acustici tendono ad amplificare tutti gli altoparlanti contemporaneamente, " ha detto il dottor Mesgarani, che è anche professore associato di ingegneria elettrica presso la Columbia Engineering. "Questo ostacola gravemente la capacità di chi lo indossa di conversare in modo efficace, essenzialmente isolandoli dalle persone che li circondano."

    L'apparecchio acustico controllato dal cervello del team della Columbia è diverso. Invece di fare affidamento esclusivamente su amplificatori sonori esterni, come microfoni, monitora anche le onde cerebrali dell'ascoltatore.

    Gli ingegneri della Columbia stanno annunciando una tecnologia sperimentale che imita la naturale attitudine del cervello a rilevare e amplificare una voce qualsiasi tra tante. Alimentato dall'intelligenza artificiale, questo apparecchio acustico controllato dal cervello funge da filtro automatico, monitorare le onde cerebrali di chi lo indossa e aumentare la voce su cui vogliono concentrarsi. Credito:Zuckerman Institute della Columbia

    "In precedenza, avevamo scoperto che quando due persone parlano tra loro, le onde cerebrali di chi parla iniziano ad assomigliare alle onde cerebrali di chi ascolta, " ha detto il dottor Mesgarani.

    Utilizzando questa conoscenza, il team ha combinato potenti algoritmi di separazione del parlato con reti neurali, modelli matematici complessi che imitano le capacità computazionali naturali del cervello. Hanno creato un sistema che prima separa le voci dei singoli oratori da un gruppo, e poi confronta le voci di ciascun oratore con le onde cerebrali della persona che ascolta. L'oratore il cui pattern vocale si avvicina maggiormente alle onde cerebrali dell'ascoltatore viene quindi amplificato sul resto.

    I ricercatori hanno pubblicato una versione precedente di questo sistema nel 2017 che, pur promettendo, aveva una limitazione fondamentale:doveva essere pre-addestrato a riconoscere oratori specifici.

    "Se sei in un ristorante con la tua famiglia, quel dispositivo riconoscerebbe e decodificherebbe quelle voci per te, " ha spiegato il dottor Mesgarani. "Ma appena una persona nuova, come il cameriere, è giunto, il sistema fallirebbe".

    Il progresso di oggi risolve in gran parte questo problema. Con i finanziamenti della Columbia Technology Ventures per migliorare il loro algoritmo originale, Dr. Mesgarani e primi autori Cong Han e James O'Sullivan, dottorato di ricerca, ancora una volta ha sfruttato la potenza delle reti neurali profonde per costruire un modello più sofisticato che potesse essere generalizzato a qualsiasi potenziale oratore che l'ascoltatore incontrasse.

    "Il nostro risultato finale è stato un algoritmo di separazione del parlato che ha funzionato in modo simile alle versioni precedenti ma con un importante miglioramento, ", ha detto il dottor Mesgarani. "Potrebbe riconoscere e decodificare una voce, qualsiasi voce, immediatamente."

    Questa tecnologia funziona imitando ciò che farebbe normalmente il cervello. Primo, il dispositivo separa automaticamente più altoparlanti in flussi separati, e poi confronta ogni altoparlante con i dati neurali dal cervello dell'utente. L'altoparlante che meglio corrisponde ai dati neurali di un utente viene quindi amplificato sopra gli altri. Credito:Nima Mesgarani / Zuckerman Institute della Columbia University

    Per testare l'efficacia dell'algoritmo, i ricercatori hanno collaborato con Ashesh Dinesh Mehta, dottore, dottorato di ricerca, un neurochirurgo presso il Northwell Health Institute for Neurology and Neurosurgery e coautore dell'articolo di oggi. Il dottor Mehta cura i pazienti con epilessia, alcuni dei quali devono essere sottoposti a regolari interventi chirurgici.

    "Questi pazienti si sono offerti volontari per ascoltare diversi oratori mentre monitoravamo le loro onde cerebrali direttamente tramite elettrodi impiantati nel cervello dei pazienti, " ha detto il dottor Mesgarani. "Abbiamo poi applicato l'algoritmo appena sviluppato a quei dati".

    L'algoritmo del team ha tracciato l'attenzione dei pazienti mentre ascoltavano diversi oratori che non avevano sentito in precedenza. Quando un paziente si concentrava su un oratore, il sistema ha amplificato automaticamente quella voce. Quando la loro attenzione si è spostata su un altro oratore, i livelli di volume sono cambiati per riflettere quel cambiamento.

    Incoraggiati dai loro risultati, i ricercatori stanno ora studiando come trasformare questo prototipo in un dispositivo non invasivo che può essere posizionato esternamente sul cuoio capelluto o intorno all'orecchio. Sperano anche di migliorare e perfezionare ulteriormente l'algoritmo in modo che possa funzionare in una gamma più ampia di ambienti.

    "Finora, l'abbiamo testato solo in un ambiente interno, " ha detto il dottor Mesgarani. "Ma vogliamo assicurarci che possa funzionare altrettanto bene in una strada trafficata della città o in un ristorante rumoroso, in modo che ovunque vadano chi li indossa, possono vivere appieno il mondo e le persone che li circondano."


    © Scienza https://it.scienceaq.com