Neurofysiologer Från USA Har Lärt Sig Att "avlyssna" På Mänskliga Tankar - Alternativ Vy

Neurofysiologer Från USA Har Lärt Sig Att "avlyssna" På Mänskliga Tankar - Alternativ Vy
Neurofysiologer Från USA Har Lärt Sig Att "avlyssna" På Mänskliga Tankar - Alternativ Vy

Video: Neurofysiologer Från USA Har Lärt Sig Att "avlyssna" På Mänskliga Tankar - Alternativ Vy

Video: Neurofysiologer Från USA Har Lärt Sig Att
Video: TechDays 2018 - Bedrägerier = Cybercrime 2024, Maj
Anonim

Amerikanska biologer har skapat en neurochip som kan läsa signaler från hjärnan i hjärnan i realtid och dechiffrera vad dess ägare hör eller säger. Denna teknik kommer att återföra talets kraft till förlamade och stumma människor, skriver forskare i tidskriften Nature Communications.

Under de senaste 10 åren har neurofysiologer lyckats göra ett verkligt genombrott inom området för att skapa neurointerfaces - en uppsättning mikrochips, speciella elektroder och datorprogram som gör det möjligt att ansluta cyberlemmar, konstgjorda ögon och till och med de sinnesorgan som inte har några analoger i naturen - termiska bilder och Röntgenbilder.

Till exempel kunde brasilianska och amerikanska forskare i mars 2013 kombinera hjärnan hos två råttor som bodde tusentals kilometer från varandra, till ett slags "lokalnätverk", eller, som forskarna själva kallade denna konstruktion, "organisk dator", och lära dem att utbyta information.

De skapade senare ett liknande "kollektivt sinne" genom att kombinera hjärnorna från tre apor, och för två år sedan kunde andra forskare ersätta den skadade delen av hippocampus, minnescentret i hjärnan hos möss och befria dem från "marmot-syndrom", oförmågan att komma ihåg ny information.

Sådana framgångar, som Chartier konstaterar, fick många forskare att fundera över om det är möjligt att direkt läsa tankar från hjärnans talcentra och formulera dem. Övningen har visat att lösningen av detta problem visade sig vara ett mycket svårare företag än att ansluta nya armar och ben till kroppen av en förlamad patient.

Våren i år kunde Chartier och hans kollegor lösa det på grund av det faktum att de inte försökte dechiffrera hjärnsignaler och direkt "läsa" ord och bokstäver, men föreslog att våra talcentra kodar inte specifika ljud, men uppsättningar av instruktioner för munens muskler, tungens larynx och stämband. Detta tillät dem för första gången att "ärligt" läsa tankar från hjärnan från flera epileptiker.

Efter att ha uppnått liknande framgångar försökte neurovetenskapsmän i Kalifornien tillämpa samma teknik för att inte bara läsa tankar från volontärens talcenter utan också från de områden i hjärnan som ansvarar för att bearbeta information från hörselorganen.

Med hjälp av tre patienter i vars elektroder med hörselcentraler implanterades började forskarna att övervaka aktiviteten hos den delen av hjärnbarken när volontärerna hörde eller svarade på frågor från Chartier och hans kollegor.

Kampanjvideo:

Genom att spela in dessa signaler och jämföra dem med varandra har neurofysiologer skapat en algoritm som "decipherar" hjärnans kommandon till ett språk som är förståeligt för en dator. Till skillnad från den tidigare versionen av detta program kan det nya hjärnbarnet av kaliforniska neurofysiologer inte bara uttrycka de "överhörda" tankarna från frivilliga, utan också konvertera dem till text genom att jämföra frågor och svar.

Även om detta system har ett ganska litet "ordförråd", men samtidigt kan det fungera i realtid och gör misstag mycket mindre ofta än andra system av liknande slag. I genomsnitt läser hon korrekt tre av fyra ord, stavelser och ljud i en mening, vilket räcker för kommunikation.

Ytterligare "utbildning" av algoritmen, som Chartier hoppas, kommer att göra det möjligt att använda detta neuro-gränssnitt för fri kommunikation med paralytiker, offer för stroke eller dumma personer som har tappat förmågan att prata på grund av trauma mot skallen eller röstsnören.

Rekommenderas: