Kan Maskiner Ha Medvetande, Enligt Neurovetenskapsmän? Det Verkar Som Om Ja - Alternativ Vy

Innehållsförteckning:

Kan Maskiner Ha Medvetande, Enligt Neurovetenskapsmän? Det Verkar Som Om Ja - Alternativ Vy
Kan Maskiner Ha Medvetande, Enligt Neurovetenskapsmän? Det Verkar Som Om Ja - Alternativ Vy

Video: Kan Maskiner Ha Medvetande, Enligt Neurovetenskapsmän? Det Verkar Som Om Ja - Alternativ Vy

Video: Kan Maskiner Ha Medvetande, Enligt Neurovetenskapsmän? Det Verkar Som Om Ja - Alternativ Vy
Video: Can we build AI without losing control over it? | Sam Harris 2024, Maj
Anonim

Så mycket som regissören vill få dig att tro på det, är huvudpersonen i Andrew Garlands film Out of the Machine från 2015 inte Caleb, en ung programmerare som har till uppgift att utvärdera maskinmedvetenheten. Nej, huvudpersonen är Ava, en fantastisk humanoid AI, naiv i utseende och mystisk inuti. Precis som de flesta filmer av detta slag lämnar Out of the Machine betraktaren att själv svara på frågan: Var Ava verkligen medveten? Samtidigt undviker filmen skickligt den taggiga frågan som högprofilerade filmer på AI försökte svara på: vad är medvetande och kan en dator ha det?

Hollywood-producenter är inte de enda som försöker svara på den här frågan. Eftersom maskinintelligens utvecklas i rasande hastighet - inte bara överträffar människors förmåga i spel som DOTA 2 och Go, utan också gör det utan mänsklig hjälp - tas denna fråga upp igen i breda och smala cirklar.

Kommer medvetandet att bryta igenom i bilar?

Den här veckan publicerade den prestigefyllda tidskriften Science en recension av kognitiva forskare Drs Stanislas Dehane, Hokwan Lau och Sid Quider från French College vid UCLA och PSL Research University. I det sa forskare: ännu inte, men det finns en tydlig väg framåt.

Orsak? Medvetandet är "absolut beräknbart", säger författarna, eftersom det härrör från specifika typer av informationsbehandling som möjliggörs av hjärnans hårdvara.

Det finns ingen magisk buljong, ingen gudomlig gnista - inte ens en empirisk komponent (”hur är det att ha medvetande?”) Krävs för att bädda in medvetandet.

Om medvetandet bara kommer från beräkningar i vårt ett och ett halvt kilogram organ, så är det bara att översätta biologi till kod att utrusta maskiner med en liknande egenskap.

Kampanjvideo:

Precis som dagens kraftfulla maskininlärningsmetoder är starkt lånade från neurovetenskap kan vi också uppnå konstgjord medvetenhet genom att studera strukturerna i våra egna hjärnor som genererar medvetande och implementera dessa idéer som datoralgoritmer.

Från hjärna till robot

Det råder ingen tvekan om att AI-området har fått ett stort uppsving från studien av våra egna hjärnor, både i form och funktion.

Till exempel är djupa neurala nätverk, de arkitektoniska algoritmerna som låg till grund för AlphaGo, modellerade på de biologiska neuronätverk som är uppbyggda i flera hjärnor.

Förstärkningsinlärning, en typ av "inlärning" där AI lär sig från miljontals exempel, är rotad i hundratals hundträningstekniker: om en hund gör något rätt får den en belöning; annars måste hon upprepa.

I den meningen verkar det att översätta arkitekturen för mänskligt medvetande till maskiner vara ett enkelt steg mot artificiell medvetenhet. Det finns bara ett stort problem.

”Ingen inom AI arbetar med att bygga medvetna maskiner eftersom vi bara inte har något att ta itu med. Vi vet bara inte vad vi ska göra, säger Dr Stuart Russell.

Flerskiktsmedvetenhet

Det svåraste att övervinna innan du börjar bygga tänkande maskiner är att förstå vad medvetenhet är.

För Dehene och kollegor är medvetandet en flerskiktad konstruktion med två”dimensioner”: C1, information som lagras färdigt i sinnet och C2, förmågan att ta emot och spåra information om sig själv. Båda är viktiga för medvetandet och kan inte existera utan varandra.

Låt oss säga att du kör bil och ett fyrtecken kommer att varna dig för en låg återstående bensinnivå. Uppfattningen om indikatorn är C1, en mental representation som vi kan interagera med: vi märker det, agerar (tankar) och pratar om det senare ("Bensin sprang ut på nedstigningen, lyckligt rullad").

"Den första betydelsen som vi vill skilja från medvetandet är begreppet global tillgänglighet", förklarar Dehene. När du blir medveten om ett ord förstår hela din hjärna det, det vill säga du kan skicka denna information genom olika metoder.

Men C1 är inte bara ett "mentalt album". Denna dimension är en hel arkitektur som gör det möjligt för hjärnan att attrahera flera modaliteter av information från våra sinnen eller till exempel från minnen från relaterade händelser.

Till skillnad från undermedveten bearbetning, som ofta förlitar sig på vissa”moduler” som är kompetenta för att lösa en viss uppsättning uppgifter, är C1 en global arbetsyta som gör att hjärnan kan integrera information, fatta beslut om åtgärder och följa igenom.

Med "medvetenhet" menar vi en viss representation vid en viss tidpunkt som kämpar för tillgång till den mentala arbetsytan och vinner. Vinnarna delas mellan hjärnans olika beräkningskretsar och hålls i centrum för uppmärksamheten under hela beslutsprocessen som avgör beteende.

C1-medvetandet är stabilt och globalt - alla anslutna hjärnkretsar är inblandade, förklarar författarna.

För en sofistikerad bil som C1 smart bil är det första steget mot att lösa ett överhängande problem som låg bränsleförbrukning. I det här exemplet är indikatorn i sig en undermedveten signal: när den tänds förblir alla andra processer i bilen oinformerade och bilen - även när den är utrustad med de senaste visuella bearbetningsverktygen - rusar utan tvekan förbi bensinstationen.

Med C1 kommer bränsletanken att meddela bilens dator (så att indikatorn går in i bilens "medvetna sinne") så att den i sin tur aktiverar GPS för att hitta närmaste station.

"Vi tror att maskinen kommer att översätta detta till ett system som kommer att extrahera information från alla tillgängliga moduler och göra den tillgänglig för alla andra bearbetningsenheter som kan använda denna information", säger Dehane. "Detta är den första känslan av medvetande."

Metakognition

På ett sätt speglar C1 sinnets förmåga att extrahera information från utsidan. C2 går in i introspektivitet.

Författarna definierar det andra medvetenhetsnätverket, C2, som "metakognition": det speglar när du lär dig eller uppfattar något eller bara gör ett misstag. ("Jag tror att jag borde ha tankat på den sista stationen, men jag glömde bort"). Denna dimension återspeglar sambandet mellan medvetenhet och en känsla av själv.

C2 är den nivå av medvetenhet som gör att du kan känna dig mer eller mindre säker på att fatta ett beslut. Beräkningsmässigt sett är det en algoritm som utleder sannolikheten för att ett beslut (eller beräkning) kommer att vara korrekt, även om det ofta uppfattas som ett "sjätte sinne".

C2 lanserar också rötter i minne och nyfikenhet. Dessa självövervakningsalgoritmer tillåter oss att veta vad vi vet och vad vi inte vet - detta är "metaminne" som hjälper dig att hitta rätt ord "på tungans spets." Att observera vad vi vet (eller inte vet) är särskilt viktigt för barn, säger Dehané.

"Det är absolut nödvändigt för små barn att hålla reda på vad de vet för att lära sig och vara nyfiken", säger han.

Dessa två aspekter av medvetandet arbetar tillsammans: C1 drar relevant information in i vårt mentala arbetsrum (kasserar andra "möjliga" idéer eller lösningar), och C2 hjälper till med långsiktig reflektion om huruvida medvetet tänkande har lett till ett användbart resultat eller svar.

När vi går tillbaka till indikatorn för låg bränsleindikering tillåter C1 bilen att lösa problemet direkt - dessa algoritmer globaliserar informationen och bilen lär sig om problemet.

Men för att lösa problemet behöver bilen en katalog med "kognitiva förmågor" - självmedvetenheten om vilka resurser som är tillgängliga, till exempel en GPS-karta över bensinstationer.

"Den här typen av självupptäckt bil är vad vi kallar att arbeta med C2", säger Dehane. Eftersom signalen är tillgänglig över hela världen och övervakas som om bilen tittar på sig själv från sidan, kommer bilen att ta hand om indikatorn för lågt bränsle och beter sig på samma sätt som en person - det kommer att minska bränsleförbrukningen och hitta en bensinstation.

"De flesta moderna maskininlärningssystem har ingen självkontroll", konstaterar författarna.

Men deras teori verkar vara på rätt väg. I de exempel där självobservationssystemet implementerades - i form av en struktur av algoritmer eller ett separat nätverk - utvecklade AI: n "interna modeller som var metakognitiva till sin karaktär, vilket gjorde det möjligt för agenten att utveckla (begränsad, implicit, praktisk) förståelse för sig själv."

Till medvetna maskiner

Kommer en bil med modellerna C1 och C2 att bete sig som om den har medvetande? Det är mycket troligt att en smart bil "vet" att den ser något, uttrycker förtroende för det, kommunicerar det till andra och hittar den bästa lösningen på problemet. Om hans introspektionsmekanismer går sönder kan han också uppleva "hallucinationer" eller synliga illusioner som människor har.

Tack vare C1 kan han använda den information han har och använda den flexibelt, och tack vare C2 kommer han att känna till gränserna för vad han vet, säger Dehane. "Jag tror att den här maskinen kommer att ha medvetenhet" och inte bara verkar så för människor.

Om du har en känsla av att medvetandet handlar om mycket mer än ett globalt informationsutbyte och självobservation, är du inte ensam.

"Denna rent funktionella definition av medvetande kan lämna vissa läsare missnöjda", medger författarna.”Men vi försöker ta ett radikalt steg, kanske förenkla problemet. Medvetenhet är en funktionell egenskap, och när vi fortsätter att lägga till funktioner i maskiner kommer dessa egenskaper någon gång att karakterisera vad vi menar med medvetande, avslutar Dehane.

Ilya Khel