Stridsrobotar Kommer! - Alternativ Vy

Stridsrobotar Kommer! - Alternativ Vy
Stridsrobotar Kommer! - Alternativ Vy

Video: Stridsrobotar Kommer! - Alternativ Vy

Video: Stridsrobotar Kommer! - Alternativ Vy
Video: СОБАКА БАСКЕРВИЛЕЙ . Приключения Шерлока Холмса и доктора Ватсона (советский сериал HD) 2024, Maj
Anonim

Verkliga mördare-robotar, som oavbrutet utför uppgiften och inte kräver mänsklig tillsyn, kan dyka upp i tjänst hos världens arméer om ett år, säger experter. Förutse faran här diskuterar experter om mördare-robotar och deras användning på slagfältet bör förbjudas i förväg.

Image
Image

Killerrobotar kan vara i tjänst med trupperna om ett år om FN inte vidtar åtgärder i förväg för att begränsa deras användning, säger Noel Sharkey, professor vid Sheffield University. Enligt hans uppfattning kommer dessa maskiner oundvikligen att orsaka massiva oskyldiga dödsfall, eftersom de inte kan skilja en militär från en civil icke-stridande. Hans uttalande kom precis vid den tidpunkt då expertsamhället från 120 länder diskuterar i Genève de potentiella risker som är förknippade med driften av autonoma vapensystem. Professor Sharkey tror: det är få diskussioner, det är brådskande att anta ett dokument om att begränsa produktionen av robotar! Annars, ett år senare, kommer robotar bokstavligen att översvämma arméerna i utvecklade länder.

Image
Image

Dessa dagar i Genève diskuterar företrädare för mer än 90 länder i världen faran som härrör från "dödliga autonoma vapensystem". En av de viktiga diskussionsfrågorna är hur man kan säkerställa säkerheten för deras användning i en stridsituation? Många experter, inklusive professor Sharkey, insisterar på att, trots systemens autonomi, en person alltid måste ha förmågan att "principiellt kontrollera" dem - för mänsklighetens säkerhet. "En robot kan fortfarande inte fatta beslut som en människa", säger professor Sharkey. - Han kan inte helt. att förstå logiken med fientligheter, kanske inte skiljer en allierad från en fiende och fattar ett beslut om tillåtligheten för vissa handlingar.”Vi kan inte låta roboten bestämma om till exempel Osama bin Ladens liv är värt det, så att 50 gamla kvinnor och 20 barn dör med honom,Säger Sharkey. - Roboten bryr sig inte. Grundläggande beslut, till exempel, om valet av ett mål måste fattas av en person. " Enligt professor Sharkey, om sådana beslut överlämnas till robotar, "kommer konsekvenserna av deras användning att vara inte mindre förödande än användningen av kemiska vapen."

Image
Image

Professor Sharkey är en av 57 experter som undertecknade ett öppet brev riktat till University of South Korea, där experter protesterar mot programmet för utveckling av intelligenta vapen. Korea Institute of Science and High Technology Kaist lanserar för närvarande detta program med militärutrustningstillverkaren Hanwa Systems, och nyheterna har skakat det vetenskapliga samfundet.”Ett universitet, en vetenskaplig institution, kan inte göra detta ur moralisk synvinkel”, säger professor Sharkey, som de andra undertecknarna är helt överens med.

Enligt experter kommer automatiska mördare-robotar att öppna Pandoras låda, vilket revolutionerar krigets sätt.

Kampanjvideo:

Representanter för Kaist Institute har redan svarat på det öppna brevet och försäkrat sina kollegor att de inte planerar att skapa droider i Skynet-stil.

Image
Image

Representanter för Keist Institute försäkrade sina kollegor att de som akademisk institution "högt värderar universella standarder för etik och moral" och inte har för avsikt att utveckla robotsoldater som arbetar utanför mänsklig kontroll. Hittills bedriver Kaist Institute bara forskning inom detta område. På detta lugnade författarna till det öppna brevet och bojkottade inte sina kollegor. Frågan om huruvida mänskligheten kommer att kunna komma överens om de allmänna principerna för total kontroll över stridsroboternas handlingar är fortfarande öppen. Under tiden är det idag inte alls viktigt i teorin. Idag är mycket funktionella robotar redan så komplexa mekanismer att även specialister inte helt förstår hur deras artificiella intelligens fungerar. Och utan att helt förstå detta kan de inte förutsäganär exakt det kan misslyckas. "Om mänskligheten är avsedd att förstöras, kommer troligen artificiell intelligens att spela en viktig roll i denna process", säger en av deltagarna i konferensen i Genève. Enligt Elon Musk medför artificiell intelligens idag fler hot mot mänskligheten än Nordkorea. Musk är övertygad om att robotar bör vara under konstant strikt kontroll av människor och har upprepade gånger vädjat till regeringarna i olika länder att utveckla tydliga regler för kontroll över system med artificiell intelligens.än Nordkorea. Musk är övertygad om att robotar bör vara under konstant strikt kontroll av människor och har upprepade gånger vädjat till regeringarna i olika länder att utveckla tydliga regler för kontroll över system med artificiell intelligens.än Nordkorea. Musk är övertygad om att robotar bör vara under konstant strikt kontroll av människor och har upprepade gånger vädjat till regeringarna i olika länder att utveckla tydliga regler för kontroll över system med artificiell intelligens.

Varvara Lyutova