År 2040 Kan Artificiell Intelligens Revolutionera Kärnsäkerhetsprinciperna - Alternativ Vy

År 2040 Kan Artificiell Intelligens Revolutionera Kärnsäkerhetsprinciperna - Alternativ Vy
År 2040 Kan Artificiell Intelligens Revolutionera Kärnsäkerhetsprinciperna - Alternativ Vy

Video: År 2040 Kan Artificiell Intelligens Revolutionera Kärnsäkerhetsprinciperna - Alternativ Vy

Video: År 2040 Kan Artificiell Intelligens Revolutionera Kärnsäkerhetsprinciperna - Alternativ Vy
Video: Artificiell intelligens – ett hot mot mänskligheten | Anders Sandberg Idévärlden 2024, Maj
Anonim

En nyligen publicerad studie av RAND Corporation drog slutsatsen att till 2040 kunde artificiell intelligens (AI) radikalt förändra begreppet kärnkraftsavskräckning.

En AI-driven "dommedagsmaskin" verkar osannolik, men de verkliga riskerna med AI för kärnsäkerhet ligger i AI: s förmåga att få människor att fatta oberättigade, potentiellt apokalyptiska beslut.

Under det kalla kriget upprätthöll begreppet försäkrad ömsesidig förstörelse en skakig fred mellan supermakterna och hävdade att varje attack skulle leda till förödande vedergällning. Som ett resultat säkerställde HLG-konceptet strategisk stabilitet och agerade nykterande på båda sidor i sin beredskap för handlingar som faktiskt skulle kunna utvecklas till ett atomkrig.

RAND-publikationen säger att AI under de kommande årtiondena är ganska kapabla att förstöra begreppet säker ömsesidig förstörelse och därmed undergräva vår strategiska stabilitet. Mer sofistikerade sensorer gör det troligt att "hämndsvapen" - till exempel kärnbåtar och mobila missiler - kan identifieras och förstöras.

Nationerna kan bli frestade att söka första strejk tillgångar som om det var en fördel över deras rivaler, även om de inte har för avsikt att slå först. Detta undergräver stabiliteten genom att även om den sida som kan attackera först inte kommer att använda denna möjlighet, kan dess motståndare inte vara säker på det.

"Kopplingen mellan kärnkraft och AI är inte ny, i själva verket är historierna sammanflätade," säger Edward Geist, medförfattare till artikeln och på RAND. "Ursprungligen genomfördes mycket av AI-forskningen med stöd av militären i strävan efter deras mål."

Som exempel citerade han ett "adaptivt planerat överlevnadsexperiment" som genomfördes på 1980-talet, vars mål var att använda AI för att kombinera intelligens med inriktning på kärnvapen.

I händelse av osäkerhet skulle AI kunna förbättra stabiliteten i den strategiska situationen genom att förbättra noggrannheten för insamlad intelligens och dess analys.

Kampanjvideo:

Forskare tror att AI i utvecklingsprocessen kommer att bli mindre benägna att göra misstag jämfört med människor, vilket innebär att det kommer att vara en faktor av stabilitet på lång sikt.

Vadim Tarabarko