Attenzione: questa pagina è una traduzione automatica di questa pagina originariamente in lingua inglese. Si prega di notare in quanto le traduzioni sono generate da macchine, non tutte le traduzioni saranno perfetti. Questo sito web e le sue pagine web sono destinati ad essere letto in inglese. Ogni traduzione del sito e le sue pagine web possono essere imprecise e inesatte, in tutto o in parte. Questa traduzione è fornita per comodità.

A sistema basato a linguaggio del nuovo motore BMI trasforma le intenzioni negli atti

Un nuovo sistema di interfaccia portabile (BMI) del cervello-commputer potrebbe migliorare la qualità di vita per la gente con disfunzione del motore o la paralisi, anche quelle lottante con la sindrome bloccata - quando una persona non può completamente cosciente ma muoversi o comunicare.

Un gruppo multi-istituzionale e internazionale dei ricercatori piombo dal laboratorio di Woon-Hong Yeo al Georgia Institute of Technology ha combinato l'elettronica morbida wireless e la realtà virtuale del cuoio capelluto in un sistema di BMI che permette che l'utente immagini un atto e senza fili gestisca una sedia a rotelle o un braccio robot.

Il gruppo, che i ricercatori inclusi dall'università di risonanza (Regno Unito) e di università di Yonsei (Repubblica Coreana), descrive al il sistema basato a linguaggio del nuovo motore BMI questo mese nel giornale ha avanzato la scienza.

Il vantaggio principale di questo sistema all'utente, confrontato a che cosa corrente esiste, è che sta morbido e bene durare e non ha alcuni collegare.„

Woon-Hong Yeo, professore associato, banco dell'asperula di George W. di ingegneria meccanica

I sistemi di BMI sono una tecnologia di ripristino che analizza il cervello di una persona segnala e traduce quell'attività neurale in comandi, trasformanti le intenzioni negli atti. Il metodo non invadente più comune per l'acquisto dei quei segnali è l'elettroencefalografia, elettroencefalogramma, che richiede tipicamente un cappuccio ingombrante del cranio dell'elettrodo e un Web aggrovigliato dei collegare.

Queste unità contano generalmente molto sui gel e gli inserimenti da contribuire a mantenere il contatto di interfaccia, richiedono gli estesi tempi di impostazione, sono generalmente inopportuni e scomodi usare. Le unità egualmente soffrono spesso da acquisizione difficile del segnale dovuto i artefatti materiali di moto o di degradazione - “il disturbo„ dipendente che può essere causato da qualcosa come la macinazione di denti o il lampeggiamento dell'occhio. Questo disturbo rivela nei cervello-dati e deve essere filtratoe.

Il sistema portatile Yeo progettato, elettrodi impercettibili d'integrazione di elettroencefalogramma del microneedle con i circuiti wireless molli, offre l'acquisizione migliore del segnale. Esattamente misurare quei segnali del cervello è critica a determinare che atti un utente vuole realizzare, in modo dal gruppo ha integrato una componente potente di algoritmo e di realtà virtuale di apprendimento automatico per indirizzare quella sfida.

Il nuovo sistema è stato provato con quattro soggetti umani, ma non è stato studiato con le persone invalide ancora.

“Questa è appena una prima dimostrazione, ma siamo entusiasmati con cui abbiamo veduto,„ Yeo celebre, Direttore del centro della tecnologia della Georgia per le interfacce Umano-Centriche e dell'assistenza tecnica nell'ambito dell'istituto per elettronica e nanotecnologia e di un membro dell'istituto minuto per la bioingegneria e le scienze biologiche.

Nuovo paradigma

Il gruppo di Yeo originalmente ha introdotto l'interfaccia molle e portabile del cervello-commputer di elettroencefalogramma in uno studio 2019 pubblicato nell'intelligenza artificiale della natura. L'autore principale di quel lavoro, Musa Mahmood, era egualmente l'autore principale di nuova pubblicazione del gruppo.

“Questa nuova interfaccia del cervello-commputer usa un paradigma interamente differente, comprendente gli atti di motore immaginati, come afferrare con qualsiasi mano, che libera l'oggetto dal dovere esaminare troppo gli stimoli,„ ha detto Mahmood, un pH. Studente del D. nel laboratorio di Yeo.

Nello studio 2021, gli utenti hanno dimostrato il controllo accurato degli esercizi di realtà virtuale facendo uso dei loro pensieri - il loro linguaggio figurato del motore. Le indicazioni visive migliorano il trattamento per sia l'utente che i ricercatori che riuniscono le informazioni.

“Le richieste virtuali sono risultato essere molto utili,„ Yeo ha detto. “Accelerano e migliorano l'impegno e l'accuratezza dell'utente. E potevamo registrare l'attività continua e di alta qualità di linguaggio figurato del motore.„

Secondo Mahmood, i lavori futuri sul sistema metteranno a fuoco sul collocamento d'ottimizzazione dell'elettrodo e sull'integrazione più avanzata all'dell'elettroencefalogramma basato a stimolo, facendo uso di cui hanno imparato dagli ultimi due studi.

Source:
Journal reference:

Mahmood, M., et al. (2021) Wireless Soft Scalp Electronics and Virtual Reality System for Motor Imagery-Based Brain–Machine Interfaces. Advanced Science. doi.org/10.1002/advs.202101129.