• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Un ingegnere propone un nuovo modello per il modo in cui gli esseri umani localizzano i suoni

    Credito:New Jersey Institute of Technology

    Uno degli enigmi duraturi della perdita dell'udito è il declino della capacità di una persona di determinare l'origine di un suono, una facoltà di sopravvivenza chiave che consente agli animali, dalle lucertole agli umani, di individuare la posizione del pericolo, prede e membri del gruppo. Nei tempi moderni, trovare un cellulare smarrito utilizzando l'applicazione "Trova il mio dispositivo, "solo per scoprire che era scivolato sotto un cuscino del divano, si basa su minuscole differenze nel suono squillante che raggiunge le orecchie.

    A differenza di altre percezioni sensoriali, come sentire dove le gocce di pioggia colpiscono la pelle o essere in grado di distinguere le note alte da quelle basse sul pianoforte, la direzione dei suoni deve essere calcolata; il cervello li stima elaborando la differenza di tempo di arrivo tra le due orecchie, la cosiddetta differenza di tempo interaurale (ITD). Un consenso di lunga data tra gli ingegneri biomedici è che gli esseri umani localizzino i suoni con uno schema simile a una mappa spaziale o a una bussola, con neuroni allineati da sinistra a destra che si attivano individualmente quando attivati ​​da un suono proveniente da una data angolazione, diciamo, a 30 gradi a sinistra dal centro della testa.

    Ma nella ricerca pubblicata questo mese sulla rivista eLife , Antje Ihlefeld, direttore del laboratorio di ingegneria neurale per il parlato e l'udito del NJIT, propone un modello diverso basato su un codice neurale più dinamico. La scoperta offre nuova speranza, lei dice, che gli ingegneri possano un giorno ideare apparecchi acustici, ora notoriamente povero nel ripristinare la direzione del suono, per correggere questo deficit.

    "Se c'è una mappa statica nel cervello che degrada e non può essere riparata, che presenta un ostacolo scoraggiante. Significa che le persone probabilmente non possono "reimparare" a localizzare bene i suoni. Ma se questa capacità percettiva si basa su un codice neurale dinamico, ci dà più speranza di riqualificare il cervello delle persone, " Ihlefeld osserva. "Programmeremmo apparecchi acustici e impianti cocleari non solo per compensare la perdita dell'udito di un individuo, ma anche in base a quanto bene quella persona potrebbe adattarsi all'uso di segnali dai propri dispositivi. Ciò è particolarmente importante per situazioni con suoni di sottofondo, dove nessun apparecchio acustico può attualmente ripristinare la capacità di individuare il suono target. Sappiamo che fornire spunti per ripristinare la direzione del suono sarebbe davvero di aiuto".

    Ciò che l'ha portata a questa conclusione è un viaggio di lavoro investigativo accademico iniziato con una conversazione con Robert Shapley, un eminente neurofisiologo della New York University che ha osservato una peculiarità della percezione binoculare umana della profondità - la capacità di determinare quanto è lontano un oggetto visivo - che dipende anche da un calcolo che confronta gli input ricevuti da entrambi gli occhi. Shapley ha notato che queste stime della distanza sono sistematicamente meno accurate per gli stimoli a basso contrasto (immagini che sono più difficili da distinguere dall'ambiente circostante) rispetto a quelli ad alto contrasto.

    Ihlefeld e Shapley si sono chiesti se lo stesso principio neurale si applicasse alla localizzazione del suono:se è meno accurato per i suoni più deboli che per quelli più forti. Ma questo si discosterà dalla prevalente teoria della mappa spaziale, noto come modello di Jeffress, che sostiene che i suoni di tutti i volumi vengono elaborati - e quindi percepiti - allo stesso modo. Fisiologi, che propongono che i mammiferi si basino su un modello neurale più dinamico, sono da tempo in disaccordo con esso. Sostengono che i neuroni dei mammiferi tendono a sparare a velocità diverse a seconda dei segnali direzionali e che il cervello quindi confronta queste velocità tra insiemi di neuroni per costruire dinamicamente una mappa dell'ambiente sonoro.

    "La sfida nel dimostrare o confutare queste teorie è che non possiamo guardare direttamente al codice neurale per queste percezioni perché i neuroni rilevanti si trovano nel tronco cerebrale umano, quindi non possiamo ottenere immagini ad alta risoluzione di loro, ", dice. "Ma avevamo la sensazione che i due modelli avrebbero fornito previsioni diverse sulla posizione del suono a un volume molto basso".

    Hanno cercato prove nella letteratura e hanno trovato solo due documenti che avevano registrato dal tessuto neurale a questi suoni bassi. Uno studio riguardava i barbagianni, una specie che si pensava si basasse sul modello di Jeffress, basato su registrazioni ad alta risoluzione nel tessuto cerebrale degli uccelli, e l'altro studio era su un mammifero, il macaco rhesus, un animale pensato per utilizzare la codifica dinamica della velocità. Hanno quindi ricostruito attentamente le proprietà di scarica dei neuroni registrate in questi vecchi studi e hanno usato le loro ricostruzioni per stimare la direzione del suono sia in funzione dell'ITD che del volume.

    "Ci aspettavamo che per i dati del barbagianni, non dovrebbe davvero importare quanto sia forte una sorgente - la direzione del suono prevista dovrebbe essere molto accurata, indipendentemente dal volume del suono - e siamo stati in grado di confermarlo. Però, quello che abbiamo scoperto per i dati sulle scimmie è che la direzione del suono prevista dipendeva sia dall'ITD che dal volume, " ha detto. "Abbiamo quindi cercato nella letteratura umana studi sulla direzione del suono percepita in funzione dell'ITD, che si pensava anche non dipendesse dal volume, ma sorprendentemente non ha trovato prove a sostegno di questa credenza di vecchia data".

    Lei e il suo studente laureato, Nima Alamatsaz, poi arruolato volontari nel campus NJIT per testare la loro ipotesi, usare i suoni per testare come il volume influisce sul punto in cui le persone pensano che emerga un suono.

    "Abbiamo costruito un ambiente estremamente silenzioso, stanza insonorizzata con attrezzature calibrate specializzate che ci hanno permesso di presentare i suoni con alta precisione ai nostri volontari e registrare dove hanno percepito il suono provenire. E abbastanza sicuro, le persone identificavano erroneamente i suoni più deboli, " nota Alamatsaz.

    "Ad oggi, non siamo in grado di descrivere con precisione i calcoli di localizzazione del suono nel cervello, " aggiunge Ihlefeld. "Tuttavia, i risultati attuali non sono coerenti con l'idea che il cervello umano si basi su un calcolo simile a Jeffress. Anziché, sembriamo fare affidamento su un meccanismo leggermente meno accurato.

    Più in generale, dicono i ricercatori, i loro studi indicano paralleli diretti nell'udito e nella percezione visiva che sono stati trascurati prima d'ora e che suggeriscono che la codifica basata sulla frequenza è un'operazione di base sottostante quando si calcolano le dimensioni spaziali da due input sensoriali.

    "Poiché il nostro lavoro scopre principi unificanti attraverso i due sensi, prevediamo che il pubblico interessato includerà scienziati cognitivi, fisiologi ed esperti di modellazione computazionale sia nell'udito che nella vista, " Dice Ihlefeld. "È affascinante confrontare il modo in cui il cervello utilizza le informazioni che raggiungono i nostri occhi e le nostre orecchie per dare un senso al mondo che ci circonda e scoprire che due percezioni apparentemente non collegate - vista e udito - possono in effetti essere abbastanza simili, dopotutto ."


    © Scienza https://it.scienceaq.com