I ricercatori studiano come il sistema uditivo raggiunge il riconoscimento vocale accurato

Affinchè gli esseri umani raggiunga il riconoscimento vocale accurato e da comunicare tra loro, il sistema uditivo deve riconoscere le categorie distinte di suoni - quali le parole - da un flusso ricevuto continuo dei suoni. Questo compito è complicato quando tenendo conto della variabilità nei suoni ha prodotto dalle persone con differenti accenti, passi, o intonazioni.

In un documento recente di comunicazioni della natura, tenaglie Liu, un candidato di Shi di PhD di bioingegneria all'università di banco di Pittsburgh Swanson di assistenza tecnica, dettagli un modello di calcolo che esplora come il sistema uditivo affronta questo compito complesso. La ricerca piombo da Srivatsun Sadagopan, assistente universitario della neurobiologia, di cui le ricerche di laboratorio la percezione dei suoni complessi nell'ascolto realistico condiziona.

“La parola„ “di A può essere pronunciata nei modi diversi dalle voci differenti, ma potete ancora ammassare tutte queste espressioni in una categoria (una parola specifica) con un significato distinto,„ ha detto Sadagopan. “In questo studio, abbiamo esaminato come il cervello raggiunge questo usando le chiamate animali come sistema-modello notevolmente semplificato. Le specie animali vocali quali gli uistitì, i macachi e le cavie producono parecchi tipi di chiamate che portano “i significati comportamentistici distinti, “ma egualmente affrontano il problema che gli animali differenti producono queste chiamate con molta variabilità.„

Il documento pubblicato, “funzionalità ottimali per categorizzazione uditiva„ (DOI: 10.1038/s41467-019-09115-y), fuochi sui vocalizations dell'uistitì comune. Xiaoqin Wang, professore di assistenza tecnica biomedica alla Johns Hopkins University, se un grande insieme dei vocalizations dell'uistitì che hanno catturato la vasta gamma della variabilità in questi suoni. La teoria dell'informazione allora usata del gruppo e un algoritmo di ricerca “avido„ per trovare le funzionalità di ogni tipo del vocalization che si sono presentate coerente malgrado tutta variabilità. La loro strategia era di selezionare un insieme delle funzionalità che hanno massimizzato insieme la prestazione, ma evita le funzionalità che erano l'un l'altro troppo simili.

“Abbiamo alimentato al nostro algoritmo un gruppo illuminazione diffusa di chiamate dell'uistitì e che lo abbiamo chiesto che per trovare le funzionalità più informative e coerente più riconoscibili,„ ha spiegato Liu. “L'output definitivo era un insieme “della maggior parte delle funzionalità informative che sono caratteristiche ad un tipo di chiamata particolare - tanto come le funzionalità di distinzione di una fronte di taglio (per esempio trovando gli occhi o un radiatore anteriore in un'immagine). Individuando la presenza o l'assenza di queste funzionalità più informative nei suoni ricevuti, il modello può identificare il tipo del vocalization con molto alta precisione.„

Dopo che le funzionalità sono state indicate per essere efficaci nel modello teorico, il gruppo ha ritornato agli animali per provare se il cervello in effetti stesse cercando queste funzionalità informative. Hanno trovato i risultati interessanti quando hanno confrontato i dati dal loro modello alle risposte neurali registrate dalla corteccia uditiva dell'uistitì da Sadagopan quando era un dottorando nel laboratorio di Xiaoqin Wang.

“La prova neurale supporta il nostro modello, che i mezzi possono essere usati come base solida per gli studi futuri,„ ha detto Liu. “Il nostro modello dà le previsioni potenti ed accurate di cui il cervello sta aspettando di sentire in vocalizations. Questa ricerca ha applicazioni in tecnologia d'avanzamento di riconoscimento vocale e protesi uditive e pianificazione usare questo lavoro per capire meglio come il cervello può isolare i suoni pertinenti negli spazi ammucchiati.„