Konstgjord Intelligens: En Farlig Fiende Eller En Vänlig Hjälper - Alternativ Vy

Konstgjord Intelligens: En Farlig Fiende Eller En Vänlig Hjälper - Alternativ Vy
Konstgjord Intelligens: En Farlig Fiende Eller En Vänlig Hjälper - Alternativ Vy

Video: Konstgjord Intelligens: En Farlig Fiende Eller En Vänlig Hjälper - Alternativ Vy

Video: Konstgjord Intelligens: En Farlig Fiende Eller En Vänlig Hjälper - Alternativ Vy
Video: Artificiell intelligens – ett hot mot mänskligheten | Anders Sandberg Idévärlden 2024, Maj
Anonim

Användningen av artificiell intelligens (AI) i vardagen får snabbt fart, men denna trend väcker alltmer oro för specialister. NYU: s personal utarbetade en försiktighetsanmälan om riskerna med att använda I. I. För det mesta fokuserade författarna på etiska och sociala frågor, liksom på bristen på reglering. Rapporten från AI Now-gruppen säger lite nytt, men i världspraxis tas frågan om behovet av att begränsa arbetet med konstgjort tänkande alltmer upp.

Nästan alla visionärer om teknisk framsteg talade om de potentiella hoten mot AI. Stephen Hawking i november förra året uttryckte de största rädslorna som åtföljdes av reflektioner kring teknikutvecklingen. Enligt hans åsikt kommer datorer förr eller senare att lära sig att reproducera sig själva. Biologiska varelser kommer förmodligen att förlora för kiselintelligens både i mentala förmågor och när det gäller anpassningsförmåga till miljön, särskilt på en annan planet. Förr eller senare kommer smarta robotar att betrakta människor som en föråldrad form och vill bli av med dem.

Hawkings ord låter fortfarande som en skräckhistoria, spelade flera gånger i filmer och böcker, men även de som arbetar med implementeringen av smarta system har blivit alltmer rädda för framtiden med AI, även om det finns de som anser att sådana rädsla är för tidiga. "Rädsla för utvecklingen av AI idag är som att oroa sig för överbefolkningen av Mars," sa Andrew Ng, chef för Google Brain. Men han lugnade inte alla.

Image
Image

Bland de största fobierna i samband med införandet av en dator i alla livssfärer är tre värda att notera. Först kommer datorsinnet att användas som ett krigsvapen, som i hög grad kommer att överträffa även kärnvapen i destruktiv kraft. Den andra är att AI kommer att förslava människor. För det tredje, som alla mänskliga skapelser, är datorn felaktig. Alla tre punkter kan diskuteras mer detaljerat.

Den 21 augusti 2017 skickade ledande experter inom forskning och implementering av artificiell intelligens, inklusive chefer för företag som SpaceX och Deep Mind, ett öppet brev till FN. I texten varnade de världssamfundet mot att utveckla dödliga autonoma vapen, vare sig de är robotar eller andra mekanismer för att döda fienden. Författarna till dokumentet uppmärksammade de dödliga konsekvenserna av användningen av sådana vapen. Med sin fenomenala effektivitet är det rättvist att fråga vilka händer den kommer att falla i. Det kan användas av både en smal krets av eliter och terrorister.

Författarna till brevet uppmanade kontrollorganisationen, och med den vetenskapliga gemenskapen, att beskriva omfattningen av den skadliga användningen av AI. En persons ansvars ansvar för sin egen skapelse förpliktar honom att utföra ett seriöst arbete för att förebygga risker. Förutom lagar, måste deras skapare också begränsa kraften hos robotar, som kommer att behöva pussla över hur man stänger av maskiner i extrema fall.

Image
Image

Kampanjvideo:

Det politiska missbruket av elektroniska system har redan visats genom arbetet med sociala nätverk och dataanalys algoritmer. Under våren i år åskade en skandal med Cambridge Analytica i världen. Dess specialister genomförde en djupgående analys av användardata och placerade annonser på Facebook, anpassade individuellt för varje person.

Företagets anställda korsade inte bara den etiska ramen, utan tillämpade också modern teknik, vars arbete var omöjligt att analysera. Effektiviteten av maskininlärning är ett återkommande tema bland ledande matematiker. De medger unisont att de är förvånade över datorprogrammens extraordinära framgång, men de är helt oförmögna att förstå arbetet i ett komplext system. I Myanmar i april i år orsakade Facebook-inlägg också en oro bland massorna, men till skillnad från USA, där protester gjordes, fanns det en massakre i den asiatiska staten som dödade flera hundra människor. Manipulation av ett stort antal människor är en realiserad verklighet och robotar här kan spela ett grymt skämt med oss.

Image
Image

Det är värt att komma ihåg samma Facebook, där AI-baserade chatbots lanserades. Virtuella assistenter utbildades för att föra en dialog med samtalaren. Med tiden blev bots oskiljbara från riktiga människor, och sedan beslutade författarna att föra samman robotarna. Med tiden började bots förkorta lexikala strukturer och utbyta gibberish. Medierna blåste upp en sensation från nyheterna, de säger "maskinerna revolterade." Men om man lägger över överdrivningen av journalister är det rättvist att erkänna att i fallet när maskiner börjar kommunicera med varandra, kanske en person inte märker detta. Och hur de kommer att leva sina egna liv där - ingen vet.

Datasinnets alltmer komplexa struktur förflyttar oss från att förstå principerna i dess arbete. Men medan de flesta algoritmer gör sitt jobb är komplexa maskiner i dag långt ifrån idealiska och gör misstag. För att vidareutveckla AI är det viktigt att förstå inte så mycket dess styrkor som dess sårbarheter. Det är på detta som ett stort antal vetenskapliga grupper fokuseras, varav en är en specialist från MIT Anish atali. För bara ett par dagar sedan berättade han för reportrar om de vanligaste misstagen i system för bildigenkänning.

Hans kollegor demonstrerade föremål till maskinen och fann att ofta enskilda föremål uppfattades felaktigt av elektronisk syn. Datorn kunde kalla en baseball en kopp kaffe och en 3D-tryckt sköldpadda en armémaskin. Gruppen har redan samlat cirka 200 objekt som är vilseledande algoritmer.

Image
Image

Konstgjord intelligens, i stället för att uppfatta ett objekt som en helhet, koncentrerade sig på dess individuella parametrar. AI tenderar att lära av ett "perfekt" prov. När han möter oförenliga fenomen kan han inte alltid överge den vanliga processen. Istället för att erkänna sin oförmåga att bearbeta bilden fortsätter han att försöka läsa bilden och detta leder till ibland roliga resultat. I stället för formen på en sköldpadda försökte den elektroniska hjärnan läsa sin struktur, liknande kamouflage. Av ungefär samma skäl är autopiloter för e-bilar ännu inte 100% pålitliga. Det är svårt för en bil att se silhuetten och anta att den består av separata element.

Och om några brister under de kommande åren kan korrigeras, finns det ingen garanti för att hackare inte kommer att utnyttja sårbarheten. Hackare av elektroniska apparater i dag representerar nästan huvudorsaken till rädsla. Ett litet team av programmerare kan inte bara få tillgång till personlig information utan också konfigurera autonoma system genom att ta kontroll över verktyg för kolossal kraft. Och då kommer vi alla i problem. Men den huvudsakliga slutsatsen som kan dras är kanske den traditionella - du ska inte vara rädd för bilar, utan människor.

Alexander Lavrenov