Tänker Som En Person: Vad Kommer Att Hända Om Du Förser Maskinen Med Medvetenhetsteorin - Alternativ Vy

Innehållsförteckning:

Tänker Som En Person: Vad Kommer Att Hända Om Du Förser Maskinen Med Medvetenhetsteorin - Alternativ Vy
Tänker Som En Person: Vad Kommer Att Hända Om Du Förser Maskinen Med Medvetenhetsteorin - Alternativ Vy

Video: Tänker Som En Person: Vad Kommer Att Hända Om Du Förser Maskinen Med Medvetenhetsteorin - Alternativ Vy

Video: Tänker Som En Person: Vad Kommer Att Hända Om Du Förser Maskinen Med Medvetenhetsteorin - Alternativ Vy
Video: ЗАМЕРЗ В ЛЕСУ / ЖУТКИЙ ВОЙ ДЕМОНА В ЛЕСУ FROZEN IN THE FOREST / CREEPY DEMON WOWING IN THE FOREST 2024, Maj
Anonim

Förra månaden led ett team av självlärda AI-spelare ett spektakulärt nederlag mot professionella esportspelare. Showkampanjen, som ägde rum som en del av Dota 2 Internationella världsmästerskapet, visade att lagstrategiskt tänkande fortfarande tillåter en person att segra över en bil.

De berörda AI: erna var flera algoritmer utvecklade av OpenAI, varav Elon Musk är en av grundarna. Ett kollektiv av digitala spelare, kallad OpenAI Five, lärde sig att spela Dota 2 på egen hand, genom prov och fel, tävla med varandra.

Till skillnad från samma schack- eller brädelogikspel Go, anses det populära och snabbt växande multiplayer-spelet Dota 2 vara ett mycket allvarligare fält för att testa konstgjord intelligens för styrka. Spelets övergripande svårighet är bara en faktor. Det räcker inte bara att klicka mycket snabbt med musen och utfärda kommandon till karaktären du kontrollerar. För att vinna är det nödvändigt att ha intuition och en förståelse för vad man kan förvänta sig av motståndaren i nästa ögonblick i tid, samt att agera adekvat enligt denna uppsättning kunskap för att komma tillsammans med gemensamma ansträngningar till ett gemensamt mål - seger. Datorn har inte den här uppsättningen funktioner.

Hittills har den mest enastående datalgoritmen för djup inlärning inte det strategiska tänkande som krävs för att förstå målen från sina motståndares uppgifter, vare sig det är en annan AI eller en människa.

Enligt Wang måste AI för att lyckas ha en djup kommunikationsförmåga, som härrör från det viktigaste kognitiva inslaget hos en person - närvaron av intelligens.

Mental state-modell som en simulering

Kampanjvideo:

Vid fyra års ålder börjar barn vanligtvis förstå ett grundläggande socialt drag: deras sinnen skiljer sig från andras. De börjar förstå att alla har det de tror på, sina önskningar, känslor och avsikter. Och viktigast av allt, genom att föreställa sig själva i stället för andra, kan de börja förutsäga dessa människors ytterligare beteende och förklara dem. På ett sätt börjar deras hjärnor skapa flera simuleringar av sig själva inom sig själva, och ersätter sig själva på andra människors plats och placerar sig i en annan miljö.

Den mentala tillståndsmodellen är viktig för att förstå sig själv som person och spelar också en viktig roll i social interaktion. Att förstå andra är nyckeln till effektiv kommunikation och uppnå gemensamma mål. Men denna förmåga kan också vara drivkraften bakom falska trosuppfattningar - idéer som leder oss bort från objektiv sanning. Så snart förmågan att använda en mental tillståndsmodell försämras, till exempel, sker detta i autism, då försämras naturliga "mänskliga" färdigheter, såsom förmågan att förklara och föreställa sig, också.

Enligt Dr. Alan Winfield, professor i robotik vid University of West of England, är den mentala tillståndsmodellen eller "sinnet teori" en nyckelfunktion som en dag kommer att göra det möjligt för AI att "förstå" människor, saker och andra robotar.

Istället för maskininlärningsmetoder, där flera lager av neurala nätverk extraherar enskilda informationsdelar och "studerar" enorma databaser, föreslår Winston att man tar ett annat synsätt. Istället för att förlita sig på lärande föreslår Winston att man förprogrammerar AI med en intern modell för sig själv och miljön som kommer att svara på enkla "vad om?" -Frågor.

Föreställ dig till exempel att två robotar rör sig längs en smal korridor, deras AI kan simulera resultaten av ytterligare åtgärder som kommer att förhindra deras kollision: sväng vänster, höger eller fortsätt rakt. Denna interna modell kommer i huvudsak att fungera som en "konsekvensmekanism" och fungera som en slags "sunt förnuft" som kommer att hjälpa AI att ytterligare korrigera åtgärder genom att förutsäga den framtida utvecklingen av situationen.

I en studie som publicerades tidigare i år demonstrerade Winston en prototyprobot som kan uppnå sådana resultat. I väntan på andras beteende passerade roboten framgångsrikt genom korridoren utan kollisioner. Det är faktiskt inte förvånande, konstaterar författaren, men den "uppmärksamma" roboten, som använde en simulerad strategi för att lösa problemet, tog 50 procent längre tid att slutföra korridoren. Ändå bevisade Winston att hans metod för intern simulering fungerar: "Detta är en mycket kraftfull och intressant utgångspunkt i utvecklingen av teorin om konstgjord intelligens," avslutade han.

Winston hoppas att AI så småningom kommer att få förmågan att beskriva, mentalt reproducera situationer. En intern modell av sig själv och andra gör att en sådan AI kan simulera olika scenarier och, ännu viktigare, att definiera specifika mål och mål för var och en av dem.

Detta skiljer sig väsentligt från djupa inlärningsalgoritmer, som i princip inte kan förklara varför de kom till denna eller den slutsatsen när de löste ett problem. Svartboxmodellen för djup inlärning är faktiskt det verkliga problemet med att lita på sådana system. Detta problem kan bli särskilt akut, till exempel när man utvecklar ammande robotar för sjukhus eller för äldre.

En AI beväpnad med en mental tillståndsmodell kan sätta sig i sina mästares skor och förstå korrekt vad som önskas av den. Då kunde han identifiera lämpliga lösningar och, efter att ha förklarat dessa beslut för personen, skulle han redan fullfölja uppgiften som tilldelats honom. Ju mindre osäkerhet i beslut, desto mer förtroende skulle det finnas hos sådana robotar.

Psykisk tillståndsmodell i ett neuralt nätverk

DeepMind tar ett annat synsätt. Istället för att förprogrammera en algoritm för konsekvensmekanismen har de utvecklat flera neurala nätverk som uppvisar likhet med en modell för kollektivt psykologiskt beteende.

AI-algoritmen "ToMnet" kan lära sig åtgärder genom att observera andra neutronnätverk. ToMNet i sig är ett kollektiv av tre neurala nätverk: det första är baserat på det speciella med att välja andra AI: er enligt deras senaste åtgärder. Den andra bildar ett allmänt begrepp om den nuvarande stämningen - deras övertygelser och avsikter vid en viss tidpunkt. Det samlade resultatet av arbetet i två nervnätverk mottas av det tredje, vilket förutsäger ytterligare åtgärder av AI baserat på situationen. Som med djup inlärning blir ToMnet effektivare eftersom det får erfarenhet genom att följa andra.

I ett experiment såg ToMnet på tre AI-agenter manövrera i ett digitalt rum och samlade färgglada lådor. Var och en av dessa AI hade sin egen egenhet: en var "blind" - kunde inte bestämma formen och placeringen i rummet. Den andra var en "sklerotisk": han kunde inte komma ihåg sina sista steg. Den tredje kunde både se och komma ihåg.

Efter träningen började ToMnet förutsäga preferenserna för varje AI genom att observera dess handlingar. Till exempel rörde de "blinda" ständigt bara längs väggarna. ToMnet kom ihåg detta. Algoritmen kunde också korrekt förutsäga AI: s framtida beteende och, ännu viktigare, förstå när AI stötte på en felaktig representation av miljön.

I ett test programmerade ett team av forskare ett AI för "myopia" och ändrade utformningen av ett rum. Agenterna med normal syn anpassade sig snabbt till den nya layouten, men den myopiska mannen fortsatte att följa sina ursprungliga rutter och trodde falskt att han fortfarande var i den gamla miljön. ToMnet noterade snabbt denna funktion och förutsagde agentens beteende noggrant och placerade sig själv på sin plats.

Enligt Dr. Alison Gopnik, en utvecklingspsykolog vid University of California, Berkeley, som inte var involverad i dessa studier, men som läste resultaten, visar dessa resultat att neurala nätverk har en fantastisk förmåga att lära sig olika färdigheter på egen hand genom observation av andra. Samtidigt är det enligt experten fortfarande mycket tidigt att säga att dessa AI: er har utvecklat en konstgjord modell av det mentala tillståndet.

Enligt Dr. Josh Tenebaum från Massachusetts Institute of Technology, som inte heller var inblandad i studien, är ToMnets "förståelse" starkt knuten till sammanhanget för lärmiljön - samma rum och specifika AI-agenter vars uppgift var att samla lådor. Denna begränsning inom en viss ram gör ToMnet mindre effektiv när det gäller att förutsäga beteende i radikalt nya miljöer, i motsats till samma barn som kan anpassa sig till nya situationer. Enligt forskaren kommer algoritmen inte att klara av att modellera handlingarna för en helt annan AI eller person.

I vilket fall som helst visar Winstons och DeepMinds arbete att datorer börjar visa rudiment av "förståelse" av varandra, även om denna förståelse fortfarande bara är rudimentär. Och när de fortsätter att förbättra denna färdighet och förstå varandra bättre och bättre kommer tiden att komma att maskiner kan förstå komplexiteten och komplexiteten i vårt eget medvetande.

Nikolay Khizhnyak

Rekommenderas: