Forskere ved University of California, San Francisco, har gjort det mulig for en lammet mann å regelmessig kontrollere en robotarm ved hjelp av signaler fra hjernen hans, overført via en datamaskin.
Han var i stand til å forstå, bevege seg og frigjøre objekter bare ved å forestille seg at han utførte handlingene. Enheten, kjent som et Brain-Computer-grensesnitt (BCI), fungerte vellykket for rekord syv måneder uten å kreve justeringer.
Til nå hadde slike enheter bare fungert en dag eller to.
Denne BCI er avhengig av en kunstig intelligens (AI) -modell som tilpasser seg små endringer i hjerneaktivitet som en person gjentatte ganger forestiller seg en bevegelse, og gradvis forbedrer nøyaktigheten.
«Denne blandingen av læring mellom mennesker og AI er den neste fasen for disse hjerne-datamaskingrensesnittene,» sa professor Karunesh Ganguly, en nevrolog ved UCSF Weill Institute for Neurosciences. «Det er det vi trenger for å oppnå sofistikert, naturtro funksjon.»
Studien, finansiert av US National Institutes of Health, ble publisert 6. mars i tidsskriftet Cell.
En av studiedeltakerne, som mistet evnen til å bevege seg og snakke etter et hjerneslag for mange år siden, kan nå kontrollere robotarmen ved å forestille seg spesifikke bevegelser.
Det viktigste gjennombruddet innebar å forstå hvordan hjerneaktivitet skifter fra dag til dag da deltakeren gjentatte ganger forestiller seg å gjøre disse bevegelsene.
Når AI -systemet var opplært til å redegjøre for disse endringene, opprettholdt det ytelse i flere måneder av gangen.
Professor Ganguly har tidligere studert hjerneaktivitetsmønstre hos dyr og observerte at disse mønstrene utviklet seg etter hvert som dyrene lærte nye bevegelser.
Han mistenkte at den samme prosessen skjedde hos mennesker, noe som forklarte hvorfor tidligere BCIS raskt mistet evnen til å tolke hjernesignaler.
Ganguly og Dr. Nikhilesh Natraj, en nevrologiforsker, jobbet med en deltaker som hadde blitt lammet av et hjerneslag og verken kunne flytte eller snakke.
Deltakeren hadde små sensorer implantert på overflaten av hjernen for å oppdage nevral aktivitet da han forestilte seg å bevege seg.
For å undersøke om disse hjernemønstrene endret seg over tid, ble deltakeren bedt om å forestille seg å flytte forskjellige kroppsdeler, for eksempel hendene, føttene og hodet.
Mens han ikke fysisk kunne bevege seg, fortsatte hjernen hans å generere signaler som tilsvarer disse forestilte bevegelsene.
BCI registrerte disse signalene og fant ut at mens de generelle mønstrene forble de samme, skiftet deres presise sted i hjernen litt hver dag.
Forskerne ba deretter deltakeren om å forestille seg enkel finger-, hånd- og tommelbevegelser i løpet av to uker mens AI -systemet lærte å tolke hjerneaktiviteten hans. Opprinnelig var robotarmens bevegelser upresise.
For å forbedre nøyaktigheten øvde deltakeren ved hjelp av en virtuell robotarm som ga tilbakemelding på hvor nær de forestilte bevegelsene hans stemte overens med de tiltenkte handlingene.
Etter hvert kunne han få den virtuelle armen til å utføre de ønskede oppgavene. Når deltakeren begynte å øve med den virkelige robotarmen, tok det bare noen få øvelser for ham å overføre ferdighetene sine til den virkelige verden. Han var i stand til å bruke robotarmen til å plukke opp blokker, snu dem og flytte dem til nye steder.
Han var til og med i stand til å åpne et skap, hente en kopp og holde den under en vanndispenser. Måneder senere kunne han fortsatt kontrollere robotarmen etter en kort 15-minutters «tune-up» for å justere for endringer i hjerneaktiviteten over tid.
Ganguly og teamet hans jobber nå for å avgrense AI -modellen for å få robotarmen til å bevege seg raskere og jevnere. De planlegger også å teste systemet i et hjemmemiljø. For personer med lammelse kan evnen til å utføre enkle oppgaver som å mate seg selv eller få en drink vann, være livsendrende.
«Jeg er veldig trygg på at vi har lært hvordan vi skal bygge systemet nå, og at vi kan få dette til å fungere,» sa Ganguly.