Artificiell Intelligens Som Terrorist: Nya Säkerhetshot - Alternativ Vy

Innehållsförteckning:

Artificiell Intelligens Som Terrorist: Nya Säkerhetshot - Alternativ Vy
Artificiell Intelligens Som Terrorist: Nya Säkerhetshot - Alternativ Vy

Video: Artificiell Intelligens Som Terrorist: Nya Säkerhetshot - Alternativ Vy

Video: Artificiell Intelligens Som Terrorist: Nya Säkerhetshot - Alternativ Vy
Video: 9/11 Science and Conspiracy 2024, Oktober
Anonim

Ryska forskare har undersökt och klassificerat hoten om att använda artificiell intelligens (AI) ur internationell information och psykologisk säkerhet. Särskild uppmärksamhet ägnades åt att motverka terrorismens skadliga användning av AI. Forskningsresultaten publiceras i tidskriften Russia in Global Affairs.

Farorna med skadlig användning av AI

Den potentiella faran för artificiell intelligens för mänskligheten har upprepade gånger blivit ämnet för konstverk och är idag en av de mest diskuterade frågorna om vetenskaplig och teknisk utveckling. Även om stark AI, som kan oberoende systemiskt tänkande och kanske har självmedvetenhet och vilja, fortfarande är långt ifrån skapad, utför olika avancerade versioner av Weak AI specialiserade uppgifter som verkade som science fiction för 10 år sedan. Användningen av AI för goda ändamål (till exempel inom medicin) ger redan tveksamma fördelar. I terroristernas och andra kriminella organisationers händer kan emellertid gradvis billigare och mer avancerade AI-tekniker bli ett mer fruktansvärt vapen än kärnkraft.

Forskare från olika länder studerar aktivt de hot som den skadliga användningen av AI innebär för samhället som helhet och för vissa områden av mänsklig aktivitet, vare sig det är politik, ekonomi, militära frågor etc. Men hot direkt mot internationell information och psykologisk säkerhet har ännu inte identifierats som en oberoende. omfattning av övervägande. Samtidigt är användningen av AI för att destabilisera internationella relationer genom riktad högteknologisk information och psykologisk påverkan på människor en uppenbar stor fara.

Studiens författare föreslog en klassificering av hot mot skadlig användning av artificiell intelligens baserat på ett antal kriterier, inklusive territoriell täckning, hastighet och form av spridning. Att använda klassificering hjälper dig att hitta sätt att motverka och utveckla svarverktyg.

”Den framtida minskningen av kostnaderna för AI-teknik kan skapa hot om grundläggande nya terroristattacker. Det är möjligt att en chatbot kan användas för att konstruera ett meddelande om en falsk händelse och övertyga potentiella offer att besöka den. För att motverka är det tillrådligt att bekanta samhället med nya hot och instruera medborgarna att vara försiktiga med fjärrkontakter med människor som de inte känner personligen. Vägen ut kan vara certifiering av offentliga evenemang, vilket bekräftar verkligheten i den information som publiceras om dem. Naturligtvis kommer tekniska specialists uppgift i detta fall att skydda databaser om händelser och mekanismen för deras certifiering,”säger Daria Bazarkina, professor vid Institutionen för internationell säkerhet och utrikespolitik i RANEPA, till RIA Novosti.

Den moderna teknologinivån och kapaciteten hos AI gör det möjligt för oss att identifiera ett antal grundläggande nya hot mot en persons information och psykologisk säkerhet.

Kampanjvideo:

Använda tekniken för "falska människor" och "deepfake" för internationella provokationer

Det amerikanska teknikföretaget NVIDIA delade nyligen resultaten från ett generativt konkurrenskraftigt nätverk som utbildats för att generera sina egna bilder av människor ("falska människor"). På några sekunder skapar det neurala nätverket högupplösta bilder av ansikten från icke-befintliga människor, kan lägga till alla kulturella och etniska drag, känslor, humör och baseras på en oändlig samling av bilder av verkliga ansikten. I framtiden är det möjligt att den här upplevelsen upprepas av andra utvecklare. Samtidigt kan sådana bilder användas av kriminella för alla slags provokationer, som endast kan erkännas av ett samhälle med systemisk polyteknisk kunskap.

”Deepfake-tekniken kan syntetisera en persons bild och röst. Det har redan börjat användas för att skapa videobilder av världsledare, inklusive USA: s president Donald Trump och den ryska presidenten Vladimir Putin. Deepfake-videor kan manipulera beteendet hos stora målgrupper och kan användas i information och psykologisk konfrontation (IPP) för att provocera ekonomisk panik eller krig, säger Evgeny Pashentsev, en ledande forskare vid Institute of Contemporary International Issues of the Russian Foreign Ministry's Diplomatic Academy, professor vid Moskva State University, till RIA Novosti.

Sentimentanalys är en klass av metoder för innehållsanalys i beräkningsspråk, utformad för automatiserad upptäckt av känslomässigt färgat ordförråd och emotionell bedömning av författare i texter. Sentimentanalys tillhandahålls av ett brett spektrum av källor, till exempel bloggar, artiklar, forum, omröstningar, etc. Detta kan vara ett mycket effektivt verktyg i API: er, som till exempel bekräftas av det stora intresset för en sådan utveckling för närvarande från ledningen för US Special Operations Command. (USA: s specialoperationskommando (SOCOM).

”Förutsägbara vapen”: Förutsäga mänskligt beteende baserat på sociala mediedata

2012 lanserade USA: s Advanced Intelligence Research Agency (IARPA) det tidiga modellbaserade händelseigenkänningen med hjälp av Surrogates (EMBERS) -program. Syftet med utvecklingen kallas förutsägelse av civil oro baserad på användningen av AI med bestämning av datum, plats, protesterande befolkningsgrupp.

Systemet bearbetar data från media och sociala nätverk, samt källor av högre kvalitet, till exempel ekonomiska indikatorer. Sådana programs fall till terrorister är naturligtvis också extremt farligt. I detta fall kan stora terroristattacker under de mest stora sociala demonstrationerna bli ett troligt hot. Ett ytterligare kriterium för att välja målen för en terroristattack kan vara graden av social och psykologisk spänning inom vissa områden.

Enligt motiveringarna till studien kan prediktiv analys användas som motåtgärd av statliga och överstatliga organ för att förhindra social spänning (snabbt antagande av sociala, ekonomiska och politiska åtgärder som syftar till att uppnå stabilitet på lång sikt).

Dessutom kan terroristgrupper orsaka rykteskador genom att använda bots under politiska kampanjer, samt att locka nya anhängare eller organisera mord på politiker.

Fånga drönare och robotinfrastruktur

Självlärande transportsystem med AI-kontroll kan vara praktiska mål för högteknologiska terrorattacker. Terroristernas beslag av kontrollen av transportkontrollsystemet i en stor stad kan leda till många skadade, orsaka panik och skapa ett psykologiskt klimat som underlättar andra kriminella aktiviteter.

Kommersiella system kan användas för att distribuera obemannade flygfordon eller autonoma fordon för att leverera sprängämnen och skapa olyckor. En serie stora katastrofer kan orsaka uppståndelse i de internationella medierna och orsaka betydande skador på information och psykologisk säkerhet.

Forskare från Ryska presidentens akademi för nationell ekonomi och offentlig förvaltning och Ryska federationens diplomatiska akademi baserade sin forskning på en systematisk analys av AI: s roll inom säkerhetsområdet, en metod för scenarioanalys, historiska analogier och fallanalys. Tillsammans med en kollega från Uppsala universitet (Sverige), Greg Simons, blev författarna till studien medredaktörer av den kommande boken "Terrorism and Advanced Technologies in Information-Psychological Confrontation: New Risks, New Möjligheter att motverka terrorismhoten" med deltagande av forskare från 11 länder.

På ryska forskares initiativ diskuteras aktivt problemet med AI: s roll i samband med hot mot internationell information och psykologisk säkerhet och kommer att diskuteras vid internationella konferenser och autonoma internationella forskningsseminarier. Bland dem är en konferens som hölls under regeringen av Rysslands kommission för UNESCO och ett antal andra ryska och internationella strukturer i Khanty-Mansiysk 9-12 juni. Guvernör för Khanty-Mansiysk autonoma Okrug Natalya Vladimirovna Komarova deltog aktivt i sessionen i avsnittet om problemet med skadlig användning av AI, bildat med stöd av det europeisk-ryska expertnätverket för kommunikationshantering (ERESKM). I framtiden är detta IV Ibero-American Forum i St. Petersburg 1 - 3 oktober 2019,Europeiska konferensen om effekterna av artificiell intelligens och robotik 31 oktober - 1 november 2019. Studiens författare har presenterat vetenskapliga rapporter i Argentina, Uruguay, Brasilien, Sydafrika och Italien.

Enligt specialister från RANEPA och Diplomatic Academy är det oerhört viktigt i Rysslands skala att etablera långsiktiga målprogram, eftersom problemet med AI och internationell information och psykologisk säkerhet är ett problem för en nära framtid.