Aviso: Esta página é uma tradução automática da página original em inglês. Por favor note uma vez que as traduções são geradas por máquinas, não tradução tudo será perfeita. Este site e suas páginas da Web destinam-se a ler em inglês. Qualquer tradução deste site e suas páginas da Web pode ser imprecisas e imprecisos no todo ou em parte. Esta tradução é fornecida como uma conveniência.

Os pesquisadores reconstroem palavras dos sinais neurais usando a relação do cérebro-computador

Uma equipe de pesquisadores de Brown University usou uma relação do cérebro-computador para reconstruir palavras inglesas dos sinais neurais gravados nos cérebros de primatas nonhuman. A pesquisa, publicada na biologia das comunicações da natureza do jornal, poderia ser uma etapa para os implantes tornando-se do cérebro que podem ajudar povos com perda da audição, os pesquisadores diz.

O que nós fizemos é gravar os testes padrões complexos da excitação neural no córtice auditivo secundário associado com as palavras do específico da audição dos primatas. Nós usamos então esses dados neurais para reconstruir o som daquelas palavras com alta fidelidade. O objetivo overarching é compreender melhor como o som é processado no cérebro do primata, que poderia finalmente conduzir aos novos tipos de próteses neurais.”

Arto Nurmikko, professor na escola de Brown da engenharia, em um investigador associado no instituto do Carney de Brown para a ciência de cérebro e no autor superior do estudo

Os sistemas de cérebro envolvidos no processamento inicial do som são similares nos seres humanos e em primatas não-humanos. O primeiro nível de processamento, que acontece no que é chamado o córtice auditivo preliminar, classifica sons de acordo com atributos como o passo ou o tom. O sinal move-se então para o córtice auditivo secundário, onde processou mais. Quando alguém está escutando palavras faladas, por exemplo, este é o lugar onde os sons são classificados por fonemas -- as características as mais simples que nos permitem de distinguir uma palavra de outra. Após o esse, a informação é enviada a outras partes do cérebro para processar isso permite a compreensão humana do discurso.

Mas porque esse processamento da fase inicial do som é similar nos seres humanos e em primatas não-humanos, aprendendo como os primatas processam as palavras que se ouvem são úteis, mesmo que provavelmente não compreendam o que aquelas palavras significam.

Para o estudo, dois implantes ervilha-feitos sob medida com 96 disposições do microelétrodo do canal gravaram a actividade dos neurônios quando os macaques do rhesus escutaram gravações de palavras e de atendimentos ingleses individuais do macaque. Neste caso, os macaques ouviram palavras razoavelmente simples um ou da dois-sílaba -- “árvore,” “bom,” “norte,” “grilo” e “programa.”

Os pesquisadores processaram as gravações neurais usando os algoritmos do computador desenvolvidos especificamente para reconhecer os testes padrões neurais associados com as palavras particulares. De lá, os dados neurais podiam ser traduzidos de novo em discurso gerado por computador. Finalmente, a equipe usou diverso o medidor para avaliar como pròxima o discurso reconstruído combinou a palavra falada original que o macaque ouviu. A pesquisa mostrou dados neurais as reconstruções produzidas gravadas da alta fidelidade que eram claras a um ouvinte humano.

O uso de disposições multielectrode gravar tal informação auditiva complexa era um primeiro, os pesquisadores dizem.

“Previamente, o trabalho tinha recolhido dados do córtice auditivo secundário com únicos eléctrodos, mas tanto quanto nós sabemos esta é a primeira gravação multielectrode desta parte do cérebro,” Nurmikko disse. “Essencialmente nós temos quase 200 cargos de escuta microscópicos que podem nos dar a riqueza e mais de alta resolução dos dados que são exigidos.”

Um dos objetivos do estudo, para que o Lee de Jihun do estudante doutoral conduziu as experiências, era testar se qualquer algoritmo modelo da descodificação particular executou melhor do que outro. A pesquisa, em colaboração com Wilson Truccolo, um perito computacional da neurociência, mostrado que redes neurais periódicas (RNNs) -- um tipo de algoritmo de aprendizagem da máquina usado frequentemente na tradução de língua automatizada -- produziu as reconstruções da alto-fidelidade. O RNNs outperformed substancialmente uns algoritmos mais tradicionais que fossem mostrados para ser eficazes em descodificar dados neurais de outras partes do cérebro.

Christopher Heelan, um investigador associado em Brown e autor do co-chumbo do estudo, pensa que o sucesso do RNNs vem de sua flexibilidade, que é importante em descodificar a informação auditiva complexa.

“Uns algoritmos mais tradicionais usados para a descodificação neural fazem suposições fortes sobre como o cérebro codifica a informação, e aquele limita a capacidade daqueles algoritmos para modelar os dados neurais,” disse Heelan, que desenvolveu o conjunto de ferramentas computacional para o estudo. “As redes neurais fazem umas suposições mais fracas e têm mais parâmetros permitindo que aprendam relacionamentos complicados entre os dados neurais e a tarefa experimental.”

Finalmente, os pesquisadores esperam, este tipo da pesquisa poderiam ajudar em desenvolver os implantes neurais podem ajudar em restaurar a audição dos povos.

“A encenação aspiracional é que nós desenvolvemos os sistemas que contorneiam muito do instrumento auditivo e entram directamente no cérebro,” Nurmikko dissemos. “Os mesmos microelétrodos que nós nos usamos para gravar a actividade neural neste estudo podem um dia ser usados para entregar pequenas quantidades de corrente elétrica nos testes padrões que dão a povos a percepção de ter ouvido sons específicos.”

Source:
Journal reference:

Heelan, C., et al. (2019) Decoding speech from spike-based neural population recordings in secondary auditory cortex of non-human primates. Communications Biology. doi.org/10.1038/s42003-019-0707-9.