Advertencia: Esta página es una traducción de esta página originalmente en inglés. Tenga en cuenta ya que las traducciones son generadas por máquinas, no que todos traducción será perfecto. Este sitio Web y sus páginas están destinadas a leerse en inglés. Cualquier traducción de este sitio Web y su páginas Web puede ser imprecisa e inexacta en su totalidad o en parte. Esta traducción se proporciona como una conveniencia.

Los investigadores estudian cómo el sistema auditivo logra el reconocimiento de voz exacto

Para que los seres humanos logren el reconocimiento de voz exacto y comuniquen el uno con el otro, el sistema auditivo debe reconocer categorías distintas de sonidos - tales como palabras - de una corriente entrante contínua de sonidos. Esta tarea llega a ser complicada cuando en vista de la variabilidad en sonidos produjo por los individuos con diversos acentos, tonos, o entonaciones.

En un papel reciente de las comunicaciones de la naturaleza, tenazas Liu, candidato de Shi del doctorado de la bioingeniería en la universidad de la escuela de Pittsburgh Swanson de la ingeniería, detalles un modelo de cómputo que explora cómo el sistema auditivo aborda esta tarea compleja. La investigación es llevada por Srivatsun Sadagopan, profesor adjunto de la neurobiología, cuyos estudios de laboratorio la opinión de sonidos complejos en escuchar realista condiciona.

“La palabra” de “A se puede pronunciar en maneras diferentes por diversas voces, pero usted puede todavía amontonar todas estas elocuciones en una categoría (una palabra específica) con un significado distinto,” dijo a Sadagopan. “En este estudio, examinamos cómo el cerebro logra esto usando los lamamientos animales como sistema de modelo grandemente simplificado. Las especies animales vocales tales como monos tití, macaques, y conejillos de Indias producen varios tipos de lamamientos que lleven “significados del comportamiento distintos, “pero también hacen frente al problema que diversos animales producen estos lamamientos con mucha variabilidad.”

El papel publicado, “características óptimas para la clasificación auditiva” (DOI: 10.1038/s41467-019-09115-y), focos en vocalizaciones del mono tití común. Xiaoqin Wang, profesor de la ingeniería biomédica en la Universidad John Hopkins, con tal que un equipo grande de las vocalizaciones del mono tití que capturaron la amplia gama de la variabilidad en estos sonidos. La teoría de información entonces usada de las personas y un algoritmo de búsqueda “codicioso” para encontrar las características de cada tipo de la vocalización que ocurrieron constantemente a pesar de toda la variabilidad. Su estrategia era seleccionar un equipo de las características que maximizaron en común funcionamiento, pero evita las características que eran demasiado similares el uno al otro.

“Introdujimos a nuestro algoritmo una inclinación lateral de los lamamientos del mono tití y la pedimos que para encontrar las características más informativas y constantemente más reconocibles,” explicó a Liu. “El rendimiento final era un equipo “de la mayoría de las características informativas” que sea característico a un tipo de lamamiento determinado - como las características de distinción de una cara (e.g encontrando aros o una nariz en una imagen). Descubriendo la presencia o la ausencia de estas características más informativas de sonidos entrantes, el modelo puede determinar el tipo de la vocalización con exactitud muy alta.”

Después de que las características fueran mostradas para ser efectivas en el modelo teórico, las personas volvieron a los animales para probar si el cerebro de hecho buscaba estas características informativas. Encontraron resultados interesantes cuando compararon datos de su modelo a las reacciones de los nervios registradas de la corteza auditiva del mono tití por Sadagopan cuando él era estudiante de tercer ciclo en el laboratorio de Xiaoqin Wang.

“Las pruebas de los nervios soportan nuestro modelo, que los medios él se pueden utilizar como asiento sólido para los estudios futuros,” dijo a Liu. “Nuestro modelo da predicciones potentes y exactas de lo que está estando atento el cerebro en vocalizaciones. Esta investigación tiene usos en tecnología de avance del reconocimiento de voz y prótesis auditivas, y proyecto utilizar este trabajo para entender mejor cómo el cerebro puede aislar sonidos relevantes en espacios apretados.”