Attenzione: questa pagina è una traduzione automatica di questa pagina originariamente in lingua inglese. Si prega di notare in quanto le traduzioni sono generate da macchine, non tutte le traduzioni saranno perfetti. Questo sito web e le sue pagine web sono destinati ad essere letto in inglese. Ogni traduzione del sito e le sue pagine web possono essere imprecise e inesatte, in tutto o in parte. Questa traduzione è fornita per comodità.

I ricercatori ricostruiscono le parole dai segnali neurali facendo uso dell'interfaccia del cervello-computer

Un gruppo dei ricercatori di Brown University ha usato un'interfaccia del cervello-computer per ricostruire le parole inglesi dai segnali neurali registrati nei cervelli dei primati non umani. La ricerca, pubblicata nella biologia di comunicazioni della natura del giornale, potrebbe essere un punto verso gli innesti di sviluppo del cervello che possono aiutare la gente con perdita dell'udito, i ricercatori dice.

Che cosa abbiamo fatto è di registrare i reticoli complessi dell'eccitazione neurale nella corteccia uditiva secondaria connessa con le parole specifiche dell'audizione dei primati. Poi usiamo quei dati neurali per ricostruire il suono di quelle parole con l'alta fedeltà. Lo scopo overarching è di capire meglio come il suono è elaborato nel cervello del primate, in grado di infine piombo ai nuovi tipi di protesi neurale.„

Arto Nurmikko, professore nel banco di Brown di assistenza tecnica, in un socio di ricerca nell'istituto del Carney di Brown per scienza di cervello ed in autore senior dello studio

I sistemi di cervello in questione nel trattamento iniziale del suono sono simili in esseri umani ed in primati non umani. Il primo livello di trattamento, che accade in che cosa è chiamato la corteccia uditiva primaria, ordina i suoni secondo gli attributi come l'altezza o il tono. Il segnale poi si muove verso la corteccia uditiva secondaria, in cui ha elaborato più ulteriormente. Quando qualcuno sta ascoltando le parole, per esempio, questo è dove i suoni sono classificati dai fonemi -- le funzionalità più semplici che ci permettano di distinguere una parola da un altro. Dopo il quel, le informazioni sono inviate ad altre parti del cervello per il trattamento che permette alla comprensione del linguaggio umana.

Ma perché quel trattamento della fase iniziale del suono è simile in esseri umani ed in primati non umani, imparando come i primati elaborano le parole che sentono sono utili, anche se probabilmente non capiscono che cosa quelle parole significano.

Per lo studio, due innesti pisello di taglia con 96 schiere del microelettrodo del canale hanno registrato l'attività dei neuroni mentre i macachi del reso hanno ascoltato le registrazioni di diverse parole e chiamate inglesi del macaco. In questo caso, i macachi hanno sentito le parole equo semplici di due-sillaba o uno -- “albero,„ “buon,„ “del nord,„ “cricket„ e “programma.„

I ricercatori hanno elaborato le registrazioni neurali facendo uso degli algoritmi del computer specificamente sviluppati per riconoscere i reticoli neurali connessi con le parole particolari. Da là, i dati neurali hanno potuto essere tradotti nuovamente dentro discorso generato da computer. Per concludere, il gruppo ha usato parecchia metrica per valutare quanto il discorso ricostruito ha abbinato molto attentamente la parola originale che il macaco ha sentito. La ricerca ha mostrato le ricostruzioni ad alta fedeltà prodotte dati neurali registrate che erano chiare ad un ascoltatore umano.

L'uso delle schiere multielectrode registrare tali informazioni uditive complesse era un primo, i ricercatori dicono.

“Precedentemente, il lavoro aveva riunito i dati dalla corteccia uditiva secondaria con i singoli elettrodi, ma per quanto sappiamo questa è la prima registrazione multielectrode da questa parte del cervello,„ Nurmikko ha detto. “Essenzialmente abbiamo quasi 200 posti di ascolto microscopici che possono darci la ricchezza e più di alta risoluzione dei dati che sono richiesti.„

Uno degli scopi dello studio, per cui lo studente di laurea Jihun Lee piombo gli esperimenti, era di provare se qualunque algoritmo di modello di decodifica particolare ha eseguito meglio di altri. La ricerca, in collaborazione con Wilson Truccolo, un esperto di calcolo in neuroscienza, indicato che reti neurali ricorrenti (RNNs) -- un tipo di algoritmo di apprendimento automatico usato spesso nella traduzione di linguaggio automatizzata -- ha prodotto le ricostruzioni di alto-fedeltà. Il RNNs ha superato sostanzialmente gli algoritmi più tradizionali che sono stati indicati per essere efficaci nel decodifica dei dati neurali da altre parti del cervello.

Christopher Heelan, un socio di ricerca a Brown ed autore del co-cavo dello studio, pensa che il successo del RNNs venga dalla loro flessibilità, che è importante nel decodifica delle informazioni uditive complesse.

“Gli algoritmi più tradizionali usati per il decodifica neurale fanno i forti presupposti circa come il cervello codifica le informazioni e quello limita la capacità di quegli algoritmi di modellare i dati neurali,„ ha detto Heelan, che ha sviluppato il toolkit di calcolo per lo studio. “Le reti neurali fanno i presupposti più deboli ed hanno più parametri permettendoli di imparare le relazioni complicate fra i dati neurali ed il compito sperimentale.„

Infine, i ricercatori sperano, questo genere di ricerca potrebbero aiutare nello sviluppare gli innesti neurali possono aiutare nella riparazione dell'audizione della gente.

“Lo scenario aspirational è che mettiamo a punto i sistemi che oltrepassano gran parte dell'apparato uditivo ed entrano direttamente in cervello,„ Nurmikko abbiamo detto. “Gli stessi microelettrodi che abbiamo usato per registrare l'attività neurale in questo studio possono l'un giorno essere utilizzati per consegnare le piccole quantità di corrente elettrica nei reticoli che danno alla gente la percezione di udito dei suoni specifici.„

Source:
Journal reference:

Heelan, C., et al. (2019) Decoding speech from spike-based neural population recordings in secondary auditory cortex of non-human primates. Communications Biology. doi.org/10.1038/s42003-019-0707-9.