Les chercheurs étudient comment l'appareil auditif réalise la reconnaissance vocale précise

Pour que les êtres humains réalisent la reconnaissance vocale précise et à communiquent entre eux, l'appareil auditif doit identifier des catégories distinctes des sons - tels que des mots - d'un flot entrant continu des sons. Cette tâche devient compliquée quand vu la variabilité dans les sons a produit par des personnes avec différents accents, tangages, ou intonations.

Dans un papier récent de transmissions de nature, pinces Liu, un candidat de Shi de la bio-ingénierie PhD à l'université de l'école de Pittsburgh Swanson du bureau d'études, petits groupes un modèle de calcul qui explore comment l'appareil auditif aborde cette tâche complexe. La recherche est aboutie par Srivatsun Sadagopan, professeur adjoint de la neurobiologie, dont les études de laboratoire la perception des sons complexes dans l'écoute réaliste révise.

« Le mot » de « A peut être prononcé dans différentes voies par différentes voix, mais vous pouvez encore mettre en bloc toutes ces expressions dans une catégorie (un mot spécifique) avec une signification distincte, » a dit Sadagopan. « Dans cette étude, nous avons examiné comment le cerveau réalise ceci à l'aide des appels animaux comme système de modèle grand simplifié. Les substances animales vocales telles que des ouistitis, des macaques, et des cobayes produisent plusieurs types d'appels qui transportent des « significations comportementales distinctes, « mais elles font face également au problème que les différents animaux produisent ces appels avec beaucoup de variabilité. »

Le papier publié, « caractéristiques optimales pour la classification auditive » (DOI : 10.1038/s41467-019-09115-y), orientations sur des vocalizations de l'ouistiti courant. Xiaoqin Wang, professeur de génie biomédical à l'Université John Hopkins, si un grand ensemble de vocalizations d'ouistiti qui ont capté la large gamme de variabilité dans ces sons. La théorie alors utilisée de l'information d'équipe et un algorithme de recherche « gourmand » pour trouver les caractéristiques de chaque type de vocalization qui se sont chronique produites en dépit de toute les variabilité. Leur stratégie était de sélecter un ensemble de fonctionnalités qui a commun maximisé le rendement, mais évite les caractéristiques qui étaient trop assimilées entre eux.

« Nous avons alimenté à notre algorithme un côté des appels d'ouistiti et l'avons demandé que pour trouver les caractéristiques les plus instructives et chronique les plus reconnaissables, » a expliqué Liu. « La sortie finale était un ensemble « de la plupart de features" instructif qui sont caractéristique à un type d'appel particulier - tout comme les caractéristiques discernantes d'une face (par exemple trouvant des yeux ou un nez dans une image). En trouvant la présence ou l'absence de ces caractéristiques les plus instructives dans les sons entrants, le modèle peut recenser le type de vocalization avec très de grande précision. »

Après que les caractéristiques se soient avérées efficaces dans le modèle théorique, l'équipe est revenue aux animaux pour vérifier si le cerveau en fait recherchait ces caractéristiques instructives. Ils ont trouvé des résultats intéressants quand ils des caractéristiques comparées de leur modèle aux réactions neurales enregistrées de l'aire supratemporale d'ouistiti par Sadagopan quand il était un étudiant de troisième cycle en laboratoire de Xiaoqin Wang.

« La preuve neurale supporte notre modèle, que des moyens il peuvent être employé comme base solide pour de futures études, » a dit Liu. « Notre modèle donne des prévisions puissantes et précises de ce que le cerveau détecte à l'oreille dans les vocalizations. Cette recherche a des applications dans la technologie de avancement de reconnaissance vocale et des prothèses auditives, et je planification pour employer ce travail pour comprendre mieux comment le cerveau peut isoler les sons appropriés dans les espaces serrés. »