Forskare Har Förklarat Hur Ett Vapenkapplöpning Kommer Att Leda Till Ett "Terminator-style War" - Alternativ Vy

Forskare Har Förklarat Hur Ett Vapenkapplöpning Kommer Att Leda Till Ett "Terminator-style War" - Alternativ Vy
Forskare Har Förklarat Hur Ett Vapenkapplöpning Kommer Att Leda Till Ett "Terminator-style War" - Alternativ Vy

Video: Forskare Har Förklarat Hur Ett Vapenkapplöpning Kommer Att Leda Till Ett "Terminator-style War" - Alternativ Vy

Video: Forskare Har Förklarat Hur Ett Vapenkapplöpning Kommer Att Leda Till Ett
Video: Terminator: Future Memory (Fan Film) 2024, April
Anonim

I en ny rapport talade experter vid Cornell University om riskerna i samband med den alltmer aktiva introduktionen av konstgjord intelligens i kärnvapen, enligt Daily Mail. Enligt forskare kan maskiner "komma ur kontroll" och provocera ett "apokalyptiskt krig", så de viktigaste besluten om användning av kärnvapen är fortfarande bättre överlåtna till personen.

Forskare varnar för att överföringen av kontrollen över kärnvapen till konstgjord intelligens kan sluta i ett apokalyptiskt krig "Terminator-style".

I sin nya rapport hävdar experter från American Ivy League Cornell University att en ökande förskjutning mot automatisering och robotisering kan leda till att maskiner "kommer ut ur kontroll" och förklarar krig mot mänskligheten - precis som i en serie sci-fi filmer "Terminator" med Arnold Schwarzenegger.

Enligt experter börjar Ryssland och Kina förlita sig oftare på teknik för konstgjord intelligens, som i framtiden kan utgöra risker som inte ens är kända för världen. Således har Moskva redan påbörjat arbetet med den obemannade undervattens- kärntorpedén Poseidon, tidigare känd som Status-6.

Dessutom kan länder besluta att använda konstgjord intelligens mer aktivt i system för tidig varning. Och här, som forskare påminner, visar historien oss att riskerna också kan vara stora. Många känner till händelsen 1983, då den sovjetiska officeren Stanislav Petrov ignorerade systemets signal om att skjuta amerikanska missiler. Petrov insåg att signalen var falsk och därmed räddade världen från ett möjligt kärnkraftkrig mellan USA och Ryssland.

Experter erkänner att datorisering av kärnvapen i någon form kan förbättra tillförlitligheten och stabiliteten i sådana system. Konstgjord intelligens kan samla in data och utföra analys, som sedan kan användas av militära ledare.

"Vid modernisering av kärnvapenarsenaler bör ledarskap sträva efter att använda datorsystem för att minska risken för olyckor, falska positiva effekter och öka mänsklig kontroll över kärnvapenoperationer", rekommenderar forskarna.

Rekommenderas: