Robotar Kommer Att Skapa De Mest Troliga Informationsförfalskningarna - Alternativ Vy

Robotar Kommer Att Skapa De Mest Troliga Informationsförfalskningarna - Alternativ Vy
Robotar Kommer Att Skapa De Mest Troliga Informationsförfalskningarna - Alternativ Vy

Video: Robotar Kommer Att Skapa De Mest Troliga Informationsförfalskningarna - Alternativ Vy

Video: Robotar Kommer Att Skapa De Mest Troliga Informationsförfalskningarna - Alternativ Vy
Video: Träffa roboten Sophia: ”Jag tror hon sa: Jag älskar Sverige” - Nyhetsmorgon (TV4) 2024, Maj
Anonim

Föreställ dig att ett underbarn en dag skulle uppfinna en teknik som gör att människor eller materiella föremål kan passera genom väggar och lägga ut instruktioner på Internet om hur man billigt kan bygga en sådan mirakelmaskin från allmänt tillgängliga hushållsmaterial. Hur skulle världen förändras?

Många industrier kommer sannolikt att bli betydligt mer produktiva. Att kunna gå genom väggar istället för att behöva använda dörrar skulle göra det lättare för människor att flytta runt på kontor, flytta varor i lager och utföra otaliga dagliga hushållsuppgifter. De negativa konsekvenserna kan dock mycket väl uppväga de positiva. Att hålla värdesaker kvar under lås och nyckel skulle förlora all mening. Vem som helst kunde enkelt komma in i lagret, komma in i ett bankskåp eller ett hus.

De flesta metoder vi använder för att skydda privat egendom involverar väggar på ett eller annat sätt, så alla skulle vara värdelösa över natten. Tjuvar skulle agera med straffrihet tills samhället kom på alternativa sätt att förhindra sådana brott. En ekonomisk kollaps eller socialt kaos kan vara resultatet av en sådan utveckling av händelserna.

Ovanstående illustrerar en allmän princip: teknisk innovation är inte alltid fördelaktig för samhället, åtminstone på kort sikt. Teknik kan skapa negativa externa, externa. Denna ekonomiska term betyder skada som orsakats tredje part eller part. Om dessa negativa externa effekter överväger nyttan med själva tekniken, gör uppfinningen faktiskt världen värre, inte bättre, åtminstone ett tag.

Maskininlärning, särskilt en variant som kallas djupinlärning, är utan tvekan det hetaste tekniska genombrottet på planeten. Det ger datorer möjlighet att utföra många uppgifter som tidigare bara människor kunde göra: känna igen bilder, köra bilar, handla med aktiemarknaden och mer. Detta har gett upphov till ångest hos vissa människor att maskininlärning kan göra människor onödiga och värdelösa på arbetsplatsen. Och detta är faktiskt möjligt, men det finns en mycket allvarligare fara från maskininlärning som hittills inte har fått tillräcklig uppmärksamhet. Poängen är att om maskiner kan lära sig, kan de också lära sig att ljuga.

Människor idag kan förfalska bilder som fotografier, men detta är en mödosam och komplex process. Och förfalskning av en röst- eller videobild ligger i allmänhet utanför en vanlig människas kapacitet. Men snart, tack vare maskininlärning, är det troligtvis möjligt att enkelt skapa trovärdiga falska videobilder av någons ansikte och ge intryck av att personen pratar med sin egen röst. Det finns redan en teknik för att synkronisera läpprörelser, som bokstavligen kan placera alla ord i människans mun. Detta är bara toppen av isberget. Snart kommer 12-åringar att kunna skapa fotorealistiska och trovärdigt klingande falska bilder av politiker, företagsledare, deras släktingar eller vänner i sina sovrum i sina sovrum och säga allt de kan föreställa sig.

Detta i sig framkallar uppenbart missbruk. Politiska bedrägerier, så kallade "falska nyheter" eller "informationsfyllning", kommer att spridas som en löpeld. Naturligtvis kommer bedrägeriet att upptäckas så snart som möjligt - ingen digital teknik kan vara så bra att annan teknik inte kommer att kunna upptäcka falska. Men detta kommer att hända först efter att den skadliga idén redan har trängt igenom hjärnan hos människor som tror på den. Föreställ dig en perfekt tillverkad falsk video av presidentkandidater som ropar rasuppslamningar eller erkänner våldsbrott.

Detta är dock bara början. Föreställ dig potentialen att manipulera aktiemarknaden. Antag att någon cirkulerade en falsk video där Teslas VD Elon Musk medger att Tesla-bilar inte är säkra. Videon kommer att spridas över internet och företagets lager kommer att krascha. Snart efter upptäckten av en falsk, kommer deras pris att återhämta sig, men under denna tid kommer manipulatorer att kunna tjäna stora pengar och spela för att minska Tesla-aktierna.

Kampanjvideo:

Och detta är långt ifrån det mest extrema scenariot. Föreställ dig en sådan joker som skapar en realistisk falsk video av president Donald Trump som säger att en strejk mot nordkoreanska mål är nära förestående, och publicerar sedan den videon där nordkoreanerna kan se den. Vilka är chanserna för att det nordkoreanska ledarskapet kommer att inse att detta är en falskhet innan de måste besluta att inleda ett krig?

De som är benägna att se sådana extrema scenarier som alarmister kommer med rimlighet att påpeka att alla falska kan upptäckas, eftersom samma maskininlärningsteknik kommer att användas för att upptäcka dem som för skapande. Men det betyder inte att vi inte riskerar att hamna i en värld fylld av allestädes närvarande förfalskningar. När förfalskningarna blir tillräckligt trovärdiga för att människor inte kan upptäcka dem på egen hand, förlorar vi för alltid förtroendet för det vi ser och hör. Istället för att lita på våra egna sinnen kommer vi att tvingas lita på algoritmer som används för att upptäcka förfalskningar och verifiera information. Under hela utvecklingen har vi lärt oss att lita på våra egna känslor,och överföringen av dessa funktioner till maskinintelligens kan vara för abrupt för de flesta.

Detta kan vara dåliga nyheter för ekonomin. Affärs- och handelsnätverk bygger på förtroende och kommunikation. Om maskininlärning kastar en oändlig storm av illusioner och förfalskningar i den offentliga informationssfären en dag kommer murarna som skapas av evolutionen för att skilja verklighet från fiktion att kollapsa. I det här fallet kan förtroendet för samhället snabbt sjunka, vilket inte kommer att sakta ner för att påverka mänsklighetens globala välbefinnande negativt.

Av denna anledning bör regeringen förmodligen vidta några åtgärder för att säkerställa att digitala förfalskningar straffas hårt. Tyvärr är det osannolikt att den nuvarande administrationen tar ett sådant steg av kärlek till smala partynyheter. Och regeringar som Ryssland kommer sannolikt att vara ännu mindre benägna att begränsa dessa metoder. I slutändan utgör kombinationen av dålig styrning med kraftfull ny teknik ett mycket större hot mot det mänskliga samhället än själva tekniken.

Av Noah Smith - Bloomberg News Columnist

Igor Abramov

Rekommenderas: