Google Vill Inte Skapa Skynet En Dag, Så Det Skapar En Switch För AI - Alternativ Vy

Google Vill Inte Skapa Skynet En Dag, Så Det Skapar En Switch För AI - Alternativ Vy
Google Vill Inte Skapa Skynet En Dag, Så Det Skapar En Switch För AI - Alternativ Vy

Video: Google Vill Inte Skapa Skynet En Dag, Så Det Skapar En Switch För AI - Alternativ Vy

Video: Google Vill Inte Skapa Skynet En Dag, Så Det Skapar En Switch För AI - Alternativ Vy
Video: VI FAKTISKT KLARAR NÅGOT! 2024, Juli
Anonim

Det finns två huvudsakliga motsatta sidor i frågor och diskussioner om framtiden för konstgjord intelligens. I det ena hörnet finns företag som Google, Facebook, Amazon och Microsoft som investerar aggressivt i teknik för att göra AI-system smartare, medan i det andra är de stora tänkarna i vår tid som Elon Musk och Stephen Hawking som tror att utvecklingen av AI är besläktad med en "demon spell".

Ett av de mest avancerade AI-företagen, DeepMind, som ägs av Google, har skapat säkerhetsåtgärder om en person måste "ta över kontrollen över en robot vars misslyckande kan leda till oåterkalleliga konsekvenser." Vi kan anta att vi talar om … "döda alla människor." Naturligtvis är i själva verket den åtgärd som inte vidtas en antydan till en möjlig apokalyp, det handlar snarare om säkerhetsåtgärder förknippade med smarta robotar som fungerar och kommer att fungera i framtiden i olika fabriker och anläggningar.

Det publicerade dokumentet med recept är ett gemensamt verk av DeepMind och Oxford Institute for the Future of Humanity, som, som namnet antyder, hanterar frågor som gör att denna mänsklighet kan komma in i framtiden. I årtionden har institutets grundare Nick Bostrom talat mycket levande om de möjliga farorna med utvecklingen av konstgjord intelligens och skrev mer än en bok om denna fråga, där han diskuterade konsekvenserna av att skapa superintelligenta robotar.

Guiden vi pratar om idag, kallad”Safely Disabled Agents,” utforskar hur man inaktiverar en AI om den börjar göra något som den mänskliga operatören inte vill göra. Arbetet består av olika beräkningar och formler som 99 procent av oss troligen inte kommer att förstå. För att uttrycka det enkelt talar vi därför om en "röd knapp" som kan inaktivera AI.

Du kanske skrattar och undrar, men pionjärerna inom robotik och AI tittar på samma sci-fi-filmer som vi gör. De där robotar en gång har kommit fram till hur man ignorerar avstängningskommandot. Så nu är vi redo för detta. Det publicerade dokumentet beskriver metoder och lösningar för att säkerställa att den "utbildningsbara agenten" (läs AI) inte kan lära sig att ignorera eller förhindra påverkan av den yttre miljön eller den mänskliga operatören.

Detta kan verka som överdöd, särskilt när du tänker på att den mest avancerade AI just nu egentligen bara är bra på brädspel. Bostrom anser emellertid att innan vi börjar skapa AI för nivån på den mänskliga hjärnan måste lämpliga åtgärder vidtas:

”Så snart artificiell intelligens når den mänskliga nivån förväntas ett kraftigt språng i utvecklingen på många områden. Kort efter kommer AI: erna själva att skapa nya AI: er. Utvärdera bara dessa utsikter och samtidigt de möjliga farorna. Därför är det bättre att överdriva det än att missa det."

NIKOLAY KHIZHNYAK

Kampanjvideo:

Rekommenderas: