Den Amerikanska Militären Har Formulerat Etiska Principer För Användning Av Artificiell Intelligens - Alternativ Vy

Den Amerikanska Militären Har Formulerat Etiska Principer För Användning Av Artificiell Intelligens - Alternativ Vy
Den Amerikanska Militären Har Formulerat Etiska Principer För Användning Av Artificiell Intelligens - Alternativ Vy

Video: Den Amerikanska Militären Har Formulerat Etiska Principer För Användning Av Artificiell Intelligens - Alternativ Vy

Video: Den Amerikanska Militären Har Formulerat Etiska Principer För Användning Av Artificiell Intelligens - Alternativ Vy
Video: AI – Maskininlärning 2024, Maj
Anonim

Det amerikanska försvarsdepartementet har formulerat och antagit etiska principer, styrda av vilka militära system för artificiell intelligens kommer att utvecklas och tillämpas i landet. Enligt Pentagon styrdes militären vid utformningen av principer av den amerikanska konstitutionen, det tionde kapitlet i den amerikanska koden (beskriver de väpnade styrkorna), krigslagar och sedvänjor, samt internationella fördrag och "väletablerade normer och värderingar."

Den aktiva utvecklingen inom skapandet av konstgjord intelligenssystem har lett till att sådana system gradvis börjar införas i vapen och militär utrustning. I synnerhet utvecklas system som gör att droner automatiskt kan upptäcka och prioritera mål, eller drönare för att fungera som slavar för bemannade flygplan. Artificiell intelligenssystem som kan dekryptera radiosändningar utvecklas också. Konstgjord intelligens kommer att bli allt viktigare i den framtida militära utvecklingen.

Den aktiva introduktionen av konstgjord intelligenssystem i vapen och militär utrustning väcker många etiska frågor. Särskilt är det ännu inte klart hur legitimt det är att använda autonoma vapensystem i ett krig och vilken typ av hot de utgör för civila som fångas i en stridszon.

Totalt har Pentagon formulerat fem etiska principer för användning av artificiell intelligenssystem för militära ändamål:

  • Ansvar. Militärpersonal måste utvärdera prestanda för konstgjord intelligens med vederbörlig försiktighet och förbli fullt ansvarig för design, distribution och användning av artificiell intelligenssystem.
  • Opartiskhet. Det amerikanska försvarsdepartementet måste vidta åtgärder för att minimera oönskade avvikelser i kunskapssystemens förmåga.
  • Spårbarhet. Militära system för konstgjord intelligens och deras kapacitet måste utformas och distribueras på ett sådant sätt att personalen har en tillräcklig förståelse för teknik, utvecklingsprocesser och applikationer. Metoder, data och dokumentation relaterade till de konstgjorda intelligenssystemen som används bör vara tillgängliga för militär personal.
  • Pålitlighet. Möjligheterna för militär artificiell intelligenssystem måste vara entydiga och tydligt formulerade. Säkerheten och effektiviteten hos sådana funktioner måste kontrolleras genom testning och validering under hela deras livslängd.
  • Underordning. Militära AI-system måste fullständigt utföra sina avsedda uppgifter, men militären måste kunna upptäcka och förhindra oönskade effekter av konstgjord intelligens. Militären borde också kunna inaktivera eller stänga av system för artificiell intelligens som upplever abnormiteter.

Pentagon har också utsett Joint Center for Artificial Intelligence till att ansvara för att implementera principerna för att använda artificiell intelligenssystem. Totalt tillbringade det amerikanska försvarsdepartementet 15 månader med att rådfråga utvecklare och vetenskapliga organisationer, samt formulera principerna för användning av system för konstgjord intelligens. Samtidigt noterade vissa experter vagheten i de antagna formuleringarna och bristen på en tydlig uppsättning regler för vad militären bör och inte bör göra när man utvecklar och använder konstgjord intelligenssystem.

Vasily Sychev

Rekommenderas: