Japanska Forskare Lärde Datorn Att Läsa Sinnen. Videoexempel - Alternativ Vy

Japanska Forskare Lärde Datorn Att Läsa Sinnen. Videoexempel - Alternativ Vy
Japanska Forskare Lärde Datorn Att Läsa Sinnen. Videoexempel - Alternativ Vy

Video: Japanska Forskare Lärde Datorn Att Läsa Sinnen. Videoexempel - Alternativ Vy

Video: Japanska Forskare Lärde Datorn Att Läsa Sinnen. Videoexempel - Alternativ Vy
Video: 2 miljarder människor beräknas försvinna 2024, Maj
Anonim

Med utvecklingen av system för preferensigenkänning och riktad annonsering erbjuder erbjudanden om att titta på videor och vänner på sociala nätverk användaren en illusion att datorn läser sina tankar. Men för bättre eller sämre går vi faktiskt mot datorer och system som faktiskt läser våra tankar. En ny studie av utvecklare från Japan är utan överdrift ett absolut genombrottsteg i denna riktning.

Ett team från Kyoto University beslutade att använda ett virtuellt neuralt nätverk för att försöka läsa och tolka tankar i ett levande neuralt nätverk, i den mänskliga hjärnan. Även om det låter ganska galen är experimentet inte i grunden nytt och japanerna är inte den första gruppen som arbetar i denna riktning. Skillnaden mellan Kyoto-teamet och deras föregångare är att tidigare tekniker rekonstruerade bilder från pixlarna och grundläggande geometriska former. En ny teknik, kallad "djup bildrekonstruktion", går emellertid bortom binära pixlar och ger forskare möjlighet att avkoda bilder med flera färglager och struktur.

"Våra hjärnor bearbetar visuell information genom att hierarkiskt extrahera olika nivåer av egenskaper eller komponenter med olika komplexitet," sade Yukiyasu Kamitani, en av forskarna som deltog i studien, i en intervju. "Dessa neurala nätverk eller AI-modeller kan användas som en tillnärmning till den hierarkiska strukturen hos den mänskliga hjärnan."

Studien varade i tio månader. Tre experimentella frivilliga, under olika längder, tittade på bilder i tre olika kategorier: naturliga föremål (som djur eller människor), konstgjorda geometriska former och bokstäver i alfabetet.

Image
Image

I detta fall registrerades hjärnans aktivitet när man tittade på bilderna. Bilden togs sedan bort och motivet ombads att tänka på den bild han bara tittade på. Samtidigt registrerades hjärnaktiviteten igen och data jämfördes med de tidigare, varefter resultaten infördes i ett virtuellt neuralt nätverk, som senare använde dem för att tolka hjärnaktivitet som vissa tankar.

Hos människor (och faktiskt i alla däggdjur) är den visuella cortex placerad på baksidan av hjärnan, i den occipitallaben, som ligger ovanför småhjärnan. Aktivitet i den visuella cortex mättes med användning av funktionell magnetisk resonansavbildning (fMRI), vilket transformerade den resulterande bilden till hierarkiska funktioner i ett virtuellt neuralt nätverk.

Från en slumpmässig bild optimerar det genererade nätverket pixelvärdena för den bilden många gånger över. Som ett resultat liknar de neurala nätverksfunktionerna för inmatningsbilden de som avkodas från hjärnaktivitet.

Kampanjvideo:

Det är viktigt att notera att den experimentella modellen antog användningen av inte bara naturliga bilder (människor eller natur), utan också antog generering och erkännande av konstgjorda strukturer och geometriska former:

Som du kan se från videon är det mycket svårare för systemet att avkoda bilden i en situation där en person inte tittar på bilden utan bara tänker på vad han såg. Men detta är tydligen helt naturligt: inte varje hjärna kommer ihåg varje detalj i bilden som just har sett, till exempel en sida från en bok. Våra minnen är vanligtvis mycket suddiga och otydliga.

I detta skede av studien behåller bilder som rekonstruerats från hjärnaktivitet bara en viss likhet med de ursprungliga bilderna som tittats av deltagarna i experimentet, de ser mest ut som minimalt detaljerade klumpar av pixlar. Men detta är bara början på vägen och med tiden kommer igenkänningsnoggrannheten att bli mer och mer, även om vi med säkerhet kan säga vilket objekt ämnet tänker på.

Allt detta öppnar fantastiska perspektiv för utvecklare. Föreställ dig "omedelbar modellering" när du bara föreställer dig ett objekt i ditt huvud - ett konstkoncept eller en detalj av en mekanism - och dess dator omedelbart, utan att trycka på några knappar, skapar automatiskt det nödvändiga tredimensionella objektet.

Image
Image

Eller kan AI gå mycket längre, registrera din hjärnaktivitet medan du sover och sedan återskapa alla dina drömmar i en 3D-värld?

Det finns otaliga tillämpningar av denna utveckling, så det japanska teamet arbetar hårt med allt. Men det är i alla våra gemensamma intressen att tankeläsningen utvecklas gradvis och noggrant eftersom tekniken medför många faror.

Rekommenderas: