Nevrofysiologer Fra USA Har Lært å "avlyse" På Menneskelige Tanker - Alternativ Visning

Nevrofysiologer Fra USA Har Lært å "avlyse" På Menneskelige Tanker - Alternativ Visning
Nevrofysiologer Fra USA Har Lært å "avlyse" På Menneskelige Tanker - Alternativ Visning

Video: Nevrofysiologer Fra USA Har Lært å "avlyse" På Menneskelige Tanker - Alternativ Visning

Video: Nevrofysiologer Fra USA Har Lært å
Video: Vitenskap om standup: Fordeler og ulemper 2024, Kan
Anonim

Amerikanske biologer har laget en nevrochip som er i stand til å lese signaler fra hørselssentralen i hjernen i sanntid og dechiffrere hva eieren hører eller sier. Denne teknologien vil returnere talekraften til lammede og stumme mennesker, skriver forskere i tidsskriftet Nature Communications.

I løpet av de siste ti årene har nevrofysiologer klart å gjøre et skikkelig gjennombrudd innen å lage neurointerfaces - et sett med mikrobrikker, spesielle elektroder og dataprogrammer som gjør det mulig å koble cyberlemmer, kunstige øyne og til og med de sanseorganer som ikke har noen analoger i naturen - termiske avbildninger og Røntgenbilder.

I mars 2013 kunne for eksempel brasilianske og amerikanske forskere kombinere hjernen til to rotter som bodde tusenvis av kilometer fra hverandre, i et slags "lokalt nettverk", eller, som forskerne selv kalte denne konstruksjonen, "organisk datamaskin", og lære dem å utveksle informasjon.

De skapte senere et lignende "kollektivt sinn" ved å kombinere hjernen til tre aper, og for to år siden klarte andre forskere å erstatte den skadede delen av hippocampus, minnesenteret i hjernen til mus, og kvitte dem med "marmot-syndromet", manglende evne til å huske ny informasjon.

Slik suksesser, som Chartier bemerker, fikk mange forskere til å tenke på om det er mulig å lese tanker direkte fra sentrene for tale og artikulere dem. Praksis har vist at å løse dette problemet viste seg å være et mye vanskeligere foretak enn å koble nye armer og ben til kroppen til en lam pasient.

Våren i år klarte Chartier og kollegene å løse det på grunn av det faktum at de ikke prøvde å tyde hjernesignalene og direkte "lese" ord og bokstaver, men antydet at talesentrene våre ikke koder for spesifikke lyder, men sett med instruksjoner for musklene i munnen, tungens strupehode og stemmebånd. Dette tillot dem for første gang å "ærlig talt" lese tanker fra hjernen til flere epileptikere.

Etter å ha oppnådd lignende suksesser, prøvde nevrovitenskapsmenn i California å bruke den samme teknikken for å lese ikke bare tanker fra talesenteret til frivillige, men også fra de områdene i hjernen som er ansvarlige for å behandle informasjon fra hørselsorganene.

Ved hjelp av tre pasienter som hadde implantert hørselssentralelektroder, begynte forskerne å overvåke aktiviteten til den delen av hjernebarken mens de frivillige hørte eller svarte på spørsmål fra Chartier og hans kolleger.

Salgsfremmende video:

Ved å registrere disse signalene og sammenligne dem med hverandre, har nevrofysiologer laget en algoritme som "defifererer" hjernens kommandoer til et språk som er forståelig for en datamaskin. I motsetning til den forrige versjonen av dette programmet, kan det nye hjernebarnet til kaliforniske nevrofysiologer ikke bare tale de "overhørte" tankene til frivillige, men også konvertere dem til tekst ved å sammenligne spørsmål og svar.

Selv om dette systemet har et ganske lite "ordforråd", men samtidig kan det fungere i sanntid og gjør feil mye sjeldnere enn andre systemer av lignende art. I gjennomsnitt leser hun riktig om tre av fire ord, stavelser og lyder i en setning, noe som er nok for kommunikasjon.

Videre "opplæring" av algoritmen, slik Chartier håper, vil tillate at denne nevrogrensesnittet kan brukes til gratis kommunikasjon med lammede, ofre for slag eller stumme som har mistet evnen til å snakke på grunn av skader på hodeskallen eller stemmebåndene.

Anbefalt: