Hur Neurala Nätverk Lärdes Att Förfalska Nyhetsbilden - Alternativ Vy

Innehållsförteckning:

Hur Neurala Nätverk Lärdes Att Förfalska Nyhetsbilden - Alternativ Vy
Hur Neurala Nätverk Lärdes Att Förfalska Nyhetsbilden - Alternativ Vy

Video: Hur Neurala Nätverk Lärdes Att Förfalska Nyhetsbilden - Alternativ Vy

Video: Hur Neurala Nätverk Lärdes Att Förfalska Nyhetsbilden - Alternativ Vy
Video: Димаш - Радио в Польше, Димаш шоу Окружение, новый клип "BTS", Бэтмен / Блиц новости 2024, April
Anonim

För att skapa förfalskningar används konstgjorda intelligenssystem och tekniker för att generera video- och ljudförfalskningar.

För att skapa en "individuell" nyhetsbild för någon av oss och förfalska medierapporterna som valts i den, är idag en programmerares ansträngningar tillräckliga. Specialister på artificiell intelligens och cybersäkerhet berättade Izvestia om detta. På senare tid uppskattade de att detta krävde arbete från flera team. En sådan acceleration blev möjlig med utvecklingen av teknologier för attacker på neurala nätverk och generering av ljud- och video-förfalskningar med hjälp av program för att skapa”djupa förfalskningar”. Tidningen Izvestia genomgick nyligen en liknande attack, då tre libyska nyhetsportaler på en gång publicerade ett meddelande som påstås dök upp i en av frågorna. Enligt experter kan man inom 3-5 år förvänta sig en invasion av robotmanipulatörer, som automatiskt kommer att kunna skapa många förfalskningar.

Modig ny värld

Det har gjorts fler och fler projekt som anpassar informationsbilden till uppfattningen för specifika användare. Ett exempel på deras arbete var den aktion som nyligen gjordes av tre libyska portaler, som publicerade nyheter som påstods tryckt i frågan om Izvestia den 20 november. Skaparna av falska modifierade tidningens första sida och lägger på ett meddelande om förhandlingarna mellan Field Marshal Khalifa Haftar och premiärministern för regeringen för National Accord (PNS) Fayez Sarraj. Den falska, i teckensnitt Izvestia, åtföljdes av ett foto av de två ledarna som togs i maj 2017. Etiketten med publikationens logotyp klipptes från det faktiska publicerade numret av 20 november och alla andra texter på sidan från 23 oktober-numret.

Ur specialists synvinkel kan sådana förfalskningar inom överskådlig framtid göras automatiskt.

Image
Image

"Artificiell intelligens teknik är nu helt öppen, och enheter för mottagande och bearbetning av data blir miniatyriserade och billigare," berättade Yuri Vilsiter, doktor i fysikaliska och matematiska vetenskaper, professor vid Ryska vetenskapsakademin, chef för avdelningen FSUE "GosNIIAS", till Izvestia. - Därför är det mycket troligt att inte ens staten och stora företag, utan helt enkelt privatpersoner inom en snar framtid kommer att kunna tjuvlyssna och spionera på oss, samt manipulera verkligheten. Under de kommande åren kommer det att vara möjligt att analysera användarpreferenser att påverka honom genom nyhetsflöden och mycket smarta förfalskningar.

Kampanjvideo:

Enligt Yuri Vilsiter finns det redan tekniker som kan användas för en sådan intervention i den mentala miljön. I teorin kan invasionen av manipulatorbots förväntas om några år, sade han. Ett begränsande ögonblick här kan vara behovet av att samla stora databaser med exempel på riktiga människors svar på artificiella stimuli med spårning av långsiktiga konsekvenser. Sådan spårning kommer troligtvis att kräva flera års forskning innan riktade attacker konsekvent erhålls.

Visionsattack

Alexei Parfentiev, chef för analysavdelningen på SearchInform, håller med Yuri Vilsiter. Enligt honom förutspår experter redan attacker på neurala nätverk, även om det praktiskt taget inte finns några sådana exempel.

- Forskare från Gartner tror att år 2022 kommer 30% av alla cyberattacker att vara inriktade på att förstöra de data som det neurala nätverket tränar på och stjäla färdiga modeller för maskininlärning. Då kan till exempel obemannade fordon plötsligt börja misstaga fotgängare för andra föremål. Och vi kommer inte att prata om ekonomisk risk eller renommérisk, utan om vanliga människors liv och hälsa, tror experten.

Attacker på datorsynssystem genomförs som en del av forskningen nu. Syftet med sådana attacker är att tvinga nervnätverket att i bilden upptäcka vad som inte finns där. Eller tvärtom att inte se vad som var planerat.

Image
Image

"Ett av de aktivt utvecklande ämnena inom utbildning av neurala nätverk är de så kallade adversarialattackerna (" adversarial attacker. "- Izvestia)," förklarade Vladislav Tushkanov, webbanalytiker på Kaspersky Lab. - I de flesta fall riktar de sig till datorsynssystem. För att genomföra en sådan attack måste du i de flesta fall ha full åtkomst till det neurala nätverket (de så kallade vita rutanattackerna) eller resultatet av dess arbete (svartboxattacker). Det finns inga metoder som kan lura något datorsynssystem i 100% av fallen. Dessutom har verktyg redan skapats som gör att du kan testa neurala nätverk för motstånd mot motstridiga attacker och öka deras motstånd.

Under en sådan attack försöker en angripare på något sätt ändra den erkända bilden så att det neurala nätverket inte fungerar. Ofta läggs brus på fotot, liknande det som uppstår när man fotograferar i ett dåligt upplyst rum. En person märker vanligtvis inte sådana störningar väl, men nervnätverket börjar fungera. Men för att genomföra en sådan attack behöver angriparen tillgång till algoritmen.

Enligt Stanislav Ashmanov, generaldirektör för Neuroset Ashmanov, finns det för närvarande inga metoder för att hantera detta problem. Dessutom är den här tekniken tillgänglig för alla: en genomsnittlig programmerare kan använda den genom att ladda ner nödvändig open source-programvara från Github-tjänsten.

Image
Image

- En attack på ett neuralt nätverk är en teknik och algoritmer för att lura ett neuralt nätverk, vilket gör att det ger falska resultat, och faktiskt bryter det som ett dörrlås, - tror Ashmanov. - Till exempel är det nu ganska enkelt att få ansiktsigenkänningssystemet att tro att det inte är du, men Arnold Schwarzenegger framför det - detta görs genom att blanda tillsatser som är omöjliga för det mänskliga ögat i de data som kommer in i det neurala nätverket. Samma attacker är möjliga för system för taligenkänning och analys.

Experten är säker på att det bara kommer att bli värre - dessa tekniker har gått till massorna, bedragare använder redan dem och det finns inget skydd mot dem. Eftersom det inte finns något skydd mot automatiserad skapande av video- och ljudförfalskningar.

Djupa förfalskningar

Deepfake-teknologier baserade på Deep Learning (tekniker för djup inlärning av neurala nätverk. - Izvestia) utgör redan ett verkligt hot. Video- eller ljudförfalskningar skapas genom att redigera eller överlägga ansikten från kända personer som förmodligen uttalar den nödvändiga texten och spelar den nödvändiga rollen i handlingen.

"Deepfake låter dig ersätta läpprörelser och mänskligt tal med video, vilket skapar en känsla av realism av vad som händer," säger Andrey Busargin, chef för avdelningen för innovativt varumärkesskydd och immateriell egendom vid Group-IB. - Falska kändisar "erbjuder" användare på sociala nätverk för att delta i utmärkelsen av värdefulla priser (smartphones, bilar, pengar), etc. Länkar från dessa videor leder ofta till bedrägliga webbplatser och nätfiskeplatser där användare uppmanas att ange personlig information, inklusive bankkortsinformation. Sådana system utgör ett hot för både vanliga användare och offentliga personer som nämns i reklam. På grund av den här typen av shenanigans blir kändisbilder associerade med bedrägerier eller annonserade varor.och det är här vi stöter på personliga varumärkesskador, säger han.

Image
Image

Ett annat hot är förknippat med användningen av "falska röster" för telefonsbedrägerier. I Tyskland använde till exempel cyberbrottslingar röstdjup för att få chefen för ett brittiskt dotterbolag omedelbart att överföra 220 000 euro till kontot för en ungerska leverantör i en telefonsamtal, posera som företagsledare. Chefen för det brittiska företaget misstänkte ett trick när hans "chef" bad om en andra postorder, men samtalet kom från ett österrikiskt nummer. Vid denna tidpunkt hade den första delen redan överförts till ett konto i Ungern, varifrån pengarna togs tillbaka till Mexiko.

Det visar sig att den nuvarande tekniken gör det möjligt att skapa en individuell nyhetsbild fylld med falska nyheter. Dessutom kommer det snart att vara möjligt att särskilja förfalskningar från verklig video och ljud endast med hårdvara. Enligt experter är det troligt att åtgärder som förbjuder utveckling av neurala nätverk inte är effektiva. Därför kommer vi snart att leva i en värld där det kommer att vara nödvändigt att hela tiden kontrollera allt.

"Vi måste förbereda oss för detta och vi måste acceptera det," betonade Yuri Vilsiter. - Mänskligheten är inte första gången som går från en verklighet till en annan. Vår värld, vår livsstil och värderingar skiljer sig radikalt från den värld där våra förfäder bodde för 60 000 år sedan, 5 000 år sedan, 2000 år sedan och till och med 200-100 år sedan. I en nära framtid kommer en person till stor del att berövas sekretess och därför tvingas att inte dölja något och agera ärligt. Samtidigt kan ingenting i den omgivande verkligheten och i en egen personlighet tas på tro, allt måste ifrågasättas och ständigt kontrolleras. Men kommer den framtida verkligheten att vara svår? Inte. Det kommer helt enkelt att vara helt annorlunda.

Anna Urmantseva

Rekommenderas: