Killerroboter Förklarar Sina Beslut För Människor - Alternativ Vy

Killerroboter Förklarar Sina Beslut För Människor - Alternativ Vy
Killerroboter Förklarar Sina Beslut För Människor - Alternativ Vy

Video: Killerroboter Förklarar Sina Beslut För Människor - Alternativ Vy

Video: Killerroboter Förklarar Sina Beslut För Människor - Alternativ Vy
Video: The Vietnam War: Reasons for Failure - Why the U.S. Lost 2024, April
Anonim

Amerikanska experter utvecklar ett neuralt nätverk som kan förklara de beslut som fattas av stridsrobotar. Detta kommer att öka nivån på människors förtroende för de "elektroniska soldaterna".

Projektet Explainable Artificial Intelligence, eller helt enkelt XAI (Explainable Artificial Intelligence), kommer att göra det möjligt för människor och robotar att bättre förstå varandra. Neurala nätverket XAI kommer att bygga en logisk kedja av "resonemang" av roboten och visa personen varför maskinen har fattat just ett sådant beslut - till exempel att öppna eld på ett specifikt mål.

Image
Image

Utveckling pågår för att skapa blandade robot-mänskliga stridsenheter i den amerikanska armén. Hittills är det svårt att föreställa sig, men om några decennier kommer robotar att bli fullfjädrade soldater - precis som människor. Dessutom kan de ersätta en person i situationer där det kan vara nödvändigt att öppna eld mot ett levande mål. En sådan ersättare kommer formellt att befria en person från ansvaret för att fatta ett dödligt beslut, men det kommer inte att kunna beröva honom tvivel och ånger och kan också orsaka misstro mot robotar. Du vet aldrig - kanske är robotar faktiskt elektroniska manier som gillar att döda?

XAI-projektet bör lösa detta problem i människa-robot-interaktion. Tack vare införandet av det nya systemet kommer militären (de som fortfarande är levande människor) att kunna förstå med vilket kriterium maskinen har utvärderat detta eller det objektet eller personen som ett hot. Dessutom kommer XAI att underlätta för stridsrobotar att anpassa sig till verkligheten i en specifik militär konflikt och minska graden av meningslös grymhet.

Den nya utvecklingen kommer att vara användbar inte bara för militären. Det kan också användas på den civila sfären - inom industri, säkerhetssystem och medicin. Ett exempel på sådan användning ges av Bill Ferguson, en ledande specialist på Raytheon, som är direkt involverad i utvecklingen av ett neuralt nätverk.”Om konstgjord intelligens upptäcker tecken på lungcancer på röntgen, kan läkaren ta reda på varför maskinen beslutade det. Datorn kommer att belysa alla misstänkta områden som läkaren kunde ha ignorerat och misstagit för bildföremål. Därefter kommer läkaren att kunna avgöra själv om det är värt att korrigera diagnosen, eller om det neurala nätverket har felat, förklarar forskaren.

Rekommenderas: