För Att Undvika Döden Måste Mänskligheten Låsa Upp Konstgjord Intelligens - Alternativ Vy

Innehållsförteckning:

För Att Undvika Döden Måste Mänskligheten Låsa Upp Konstgjord Intelligens - Alternativ Vy
För Att Undvika Döden Måste Mänskligheten Låsa Upp Konstgjord Intelligens - Alternativ Vy

Video: För Att Undvika Döden Måste Mänskligheten Låsa Upp Konstgjord Intelligens - Alternativ Vy

Video: För Att Undvika Döden Måste Mänskligheten Låsa Upp Konstgjord Intelligens - Alternativ Vy
Video: Artificiell intelligens – ett hot mot mänskligheten | Anders Sandberg Idévärlden 2024, April
Anonim

Superintelligent datorer eller robotar som hotar människornas existens är en favoritplott av science fiction. I verkligheten, enligt forskare, kan ett sådant dommarscenario endast förhindras genom att skapa ett virtuellt "fängelse" för att innehålla artificiell intelligens (AI). Och detta måste göras innan han lär sig att vara medveten om och förbättra sig själv.

Om du släpper denna genie ur flaskan, sedan från ett orakel som löser våra problem, kan det förvandlas till ett apokalyptiskt hot, säger Roman Yampolsky, en forskare vid University of Louisville (Kentucky), som arbetar inom datavetenskap. Villkoren för vilka AI kommer att innehålla måste planeras noggrant så att det inte kan bryta sig fri genom hot, mutor, frestelser eller datorhackning.

"Han kan uppfinna många sätt att påverka, kränka en komplex socio-ingenjörskombination och använda befintliga hårdvarukomponenter för syften som vi inte ens kan föreställa oss," tror Yampolsky. - Sådan programvara har obegränsade möjligheter att infektera datorer och nätverk. AI kan hitta sätt att påverka den mänskliga psyken, muta eller utpressa människor som är i kontakt med den."

Uppkomsten av ett nytt område med vetenskaplig forskning som hanterar problemet med att skapa ett "fängelse" för konstgjord intelligens har ytterligare fördelar. Dessa studier är mycket användbara för att förbättra datasäkerhet och kryptografi, Yampolsky är säker. Hans förslag detaljerades i marsutgåvan av den akademiska tidskriften Journal of Consciousness Studies.

Hur man sätter upp en fälla för Skynet

Till att börja med kan du lägga in konstgjord intelligens i en "virtuell maskin". Låt det fungera inom ett normalt operativsystem - att begränsa AI-åtkomst till programvaran och hårdvaran på värddatorn gör det mycket mer ofarligt. Hur som helst kommer smart AI inte att kunna skicka hemliga meddelanden till sina mänskliga supportrar och slår av Morse-kod med kylfläktar.

Att lägga artificiell intelligens i en dator utan Internet-åtkomst är ett bra sätt att hindra AI: s lumska planer att skydda jorden från dig och mig. I händelse av något annat fel kan forskare alltid bromsa AI-tankeprocessen genom att bromsa datorns bearbetningshastighet, regelbundet trycka på "återställning" -knappen eller koppla bort AI från strömförsörjningen.

Kampanjvideo:

Dessa säkerhetsåtgärder är utformade för att hantera mycket intelligenta och farliga datavirus, men hur effektiva de faktiskt visar sig är någons gissning.

Catch-22 (roman av den amerikanska författaren J. Heller; ungefär Mixednews) är att vi inte kan göra fullskalatester av våra idéer förrän utvecklingen av AI är klar. Men för att skydda AI är det nödvändigt att utveckla en uppsättning lämpliga åtgärder, säger Yampolsky. "Det bästa alternativet är att införa begränsningar för användningen av AI-system och sedan vid behov ändra dessa begränsningar i enlighet med den ökande kapaciteten hos AI."

Image
Image

Forskaren Roman Yampolsky föreslog att använda "@" -tecknet eller andra tecken som används idag för att beteckna en strålning eller biologiskt hot för att indikera förekomsten av en fara i samband med artificiell intelligens.

Sätt aldrig en mänsklig säkerhetsvakt på fordonet

Under en till synes oskyldig konversation med en säkerhetsvakt hindrar inget AI från att använda psykologiska tekniker som vänskap eller utpressning. En person kan bestämmas genom att lova honom perfekt hälsa, odödlighet eller till och med ett löfte om att återvända släktingar och vänner från den andra världen. Eller uppnå någonting med hot.

Det säkraste sättet att kommunicera med AI är att göra det, när du löser ett specifikt vetenskapligt eller tekniskt problem, välja ett svar från de många tillgängliga alternativen, förklarar Yampolsky. Detta hjälper till att hålla det supersmarta orakelet i en kort koppel.

Många forskare tror att trots alla försiktighetsåtgärder kommer det inte att fungera att hålla AI-smartass fast på obestämd tid. Det senaste experimentet av Eliezer Yudkowsky, en forskare vid Institute of Singularity om skapandet av konstgjord intelligens, visade att även människors intelligens kan lura en person och "fly" från fängelse.

Ändå insisterar Yampolsky på att hålla AI i strikt isolering - det är fortfarande bättre än att ge upp och ge det full frihet. Men om utvecklingen av AI når den punkt där den kan manipulera en person som använder det undermedvetna (förutsäga framtiden), telepati eller telekinesis, kommer konsekvenserna att vara oförutsägbara.

"Om en sådan AI självförbättrar och når en nivå som väsentligt överskrider kapaciteten för mänsklig intelligens, kan konsekvenserna inte ens föreställas," varnar Yampolsky.

Rekommenderas: