Advertencia: Esta página es una traducción de esta página originalmente en inglés. Tenga en cuenta ya que las traducciones son generadas por máquinas, no que todos traducción será perfecto. Este sitio Web y sus páginas están destinadas a leerse en inglés. Cualquier traducción de este sitio Web y su páginas Web puede ser imprecisa e inexacta en su totalidad o en parte. Esta traducción se proporciona como una conveniencia.

Los investigadores reconstruyen palabras de señales de los nervios usando interfaz de la cerebro-computador

Las personas de los investigadores de Brown University han utilizado un interfaz de la cerebro-computador para reconstruir palabras inglesas de las señales de los nervios registradas en los cerebros de primates no humanos. La investigación, publicada en la biología de las comunicaciones de la naturaleza del gorrón, podría ser un paso hacia los implantes del cerebro que se convertían que pueden ayudar a gente con pérdida de oído, los investigadores dice.

Qué hemos hecho es registrar las configuraciones complejas de la excitación de los nervios en la corteza auditiva secundaria asociada a las palabras del específico de la audiencia de los primates. Entonces utilizamos esos datos de los nervios para reconstruir el sonido de esas palabras con de alta fidelidad. La meta overarching es entender mejor cómo el sonido se tramita en el cerebro del primate, que podría llevar final a los nuevos tipos de odontología de los nervios.”

Arto Nurmikko, profesor en la escuela de Brown de la ingeniería, un socio de investigación en el instituto de Carney de Brown para la ciencia de cerebro y el autor mayor del estudio

Los sistemas de cerebro implicados en el tramitación inicial del sonido son similares en seres humanos y primates no humanos. El primer nivel de tramitación, que suceso en qué se llama la corteza auditiva primaria, clasificación sonidos según atributos como tono o tono. La señal entonces se mueve a la corteza auditiva secundaria, donde ha tramitado más lejos. Cuando alguien está escuchando las palabras habladas, por ejemplo, aquí es donde los sonidos son clasificados por fonemas -- las características más simples que nos permiten distinguir una palabra de otra. Después de ese, la información se envía a otras partes del cerebro para tramitar eso habilita la comprensión humana del discurso.

Pero porque ese tramitación del temprano-escenario del sonido es similar en seres humanos y primates no humanos, aprendiendo cómo los primates tramitan las palabras que oyen son útiles, aunque no entienden probablemente lo que significan esas palabras.

Para el estudio, dos implantes guisante-clasificados con 96 matrices del microelectrodo del canal registraron la actividad de neuronas mientras que los macaques del macaco de la India escucharon las grabaciones de palabras y de lamamientos ingleses individuales del macaque. En este caso, los macaques oyeron palabras bastante simples uno o de la dos-sílaba -- “árbol,” “bueno,” “del norte,” “grillo” y “programa.”

Los investigadores tramitaron las grabaciones de los nervios usando los algoritmos de la computador desarrollados específicamente para reconocer las configuraciones de los nervios asociadas a palabras determinadas. De allí, los datos de los nervios se podían traducir nuevamente dentro de discurso generado por ordenador. Finalmente, las personas utilizaron varias métricas para evaluar cómo el discurso reconstruido igualó de cerca la palabra hablada original que el macaque oyó. La investigación mostró las reconstrucciones de alta fidelidad producidas los datos de los nervios registradas que estaban sin obstrucción a un radioyente humano.

El uso de matrices multi-electrodo de registrar tal información auditiva compleja era un primer, los investigadores dicen.

“Previamente, el trabajo había recopilado datos de la corteza auditiva secundaria con los únicos electrodos, pero por lo que sabemos ésta es la primera grabación multi-electrodo de esta parte del cerebro,” Nurmikko dijo. “Esencialmente tenemos casi 200 postes que escuchan microscópicos que puedan darnos la riqueza y más de alta resolución de los datos se requiere que.”

Una de las metas del estudio, para el cual el estudiante doctoral Jihun Lee llevó los experimentos, era probar si cualquier algoritmo modelo el decodificar determinado se realizó mejor que otras. La investigación, en colaboración con Wilson Truccolo, un experto de cómputo de la neurología, mostrado que redes neuronales periódicas (RNNs) -- un tipo de algoritmo de aprendizaje de máquina de uso frecuente en la traslación de lenguaje automatizada -- produjo las reconstrucciones más de alta fidelidad. El RNNs superó substancialmente algoritmos más tradicionales que se han mostrado para ser efectivos en decodificar datos de los nervios de otras partes del cerebro.

Christopher Heelan, socio de investigación en Brown y autor del co-guía del estudio, piensa que el éxito del RNNs viene de su adaptabilidad, que es importante en decodificar la información auditiva compleja.

“Algoritmos más tradicionales usados para decodificar de los nervios hacen suposiciones fuertes sobre cómo el cerebro codifica la información, y ése limita la capacidad de esos algoritmos de modelar los datos de los nervios,” dijo a Heelan, que desarrolló la caja de herramientas de cómputo para el estudio. Las “redes neuronales hacen suposiciones más débiles y tienen más parámetros permitiendo que aprendan lazos complicados entre los datos de los nervios y la tarea experimental.”

Final, los investigadores esperan, esta clase de investigación podrían ayudar en desarrollar los implantes de los nervios pueden ayudar en restablecer la audiencia de la gente.

“El decorado aspirational es que desarrollamos los sistemas que sobrepasan mucho del aparato auditivo y entran directamente el cerebro,” Nurmikko dijimos. “Los mismos microelectrodos que registrábamos actividad de los nervios en este estudio se pueden un día utilizar para entregar pequeñas cantidades de corriente eléctrica en las configuraciones que dan a gente la opinión de oír sonidos específicos.”

Source:
Journal reference:

Heelan, C., et al. (2019) Decoding speech from spike-based neural population recordings in secondary auditory cortex of non-human primates. Communications Biology. doi.org/10.1038/s42003-019-0707-9.