Bygga En Moralisk Maskin: Vem Kommer Att Ansvara För Etiken I Självkörande Bilar? - Alternativ Vy

Innehållsförteckning:

Bygga En Moralisk Maskin: Vem Kommer Att Ansvara För Etiken I Självkörande Bilar? - Alternativ Vy
Bygga En Moralisk Maskin: Vem Kommer Att Ansvara För Etiken I Självkörande Bilar? - Alternativ Vy

Video: Bygga En Moralisk Maskin: Vem Kommer Att Ansvara För Etiken I Självkörande Bilar? - Alternativ Vy

Video: Bygga En Moralisk Maskin: Vem Kommer Att Ansvara För Etiken I Självkörande Bilar? - Alternativ Vy
Video: Ett etiskt dilemma 2024, Mars
Anonim

Du kör längs en motorväg när en man springer ut på en trafikerad väg. Bilar rör sig runt dig och du har en sekund att ta ett beslut: försöka undvika en person och skapa risken för en olycka? Fortsätt köra i hopp om att han får tid? Att bromsa? Hur betygsätter du oddsen för att få ett barn i bandet på baksätet? På många sätt är detta ett klassiskt "moraliskt dilemma", ett vagnsproblem. Hon har en miljon olika alternativ som låter dig identifiera mänskliga fördomar, men essensen är densamma.

Du befinner dig i en situation där liv och död står på spel, det finns inget enkelt val och ditt beslut kommer i själva verket att bestämma vem som lever och vem som dör.

Vagnens dilemma och konstgjord intelligens

MITs nya tidning, som publicerades förra veckan i tidskriften Nature, försöker komma med en fungerande lösning på vagnsproblemet genom att rekrytera miljoner volontärer. Experimentet inleddes 2014 och var en framgång och fick över 40 miljoner svar från 233 länder, vilket gjorde det till en av de största moraliska studier som någonsin genomförts.

En person kan fatta sådana beslut omedvetet. Det är svårt att väga alla etiska system och moraliska förutsättningar när din bil tävlar längs vägen. Men i vår värld fattas beslut alltmer genom algoritmer, och datorer kan lätt svara snabbare än vi gör.

Hypotetiska situationer med självkörande bilar är inte de enda moraliska beslut som algoritmer måste fatta. Medicinska algoritmer kommer att välja vem som ska behandlas med begränsade resurser. Automatiserade drönare väljer hur mycket "säkerhetsskada" som är acceptabelt i ett enskilt militärt engagemang.

Kampanjvideo:

Inte alla moraliska principer är lika

”Lösningarna” på vagnsproblemet är lika varierande som själva problemen. Hur kommer maskiner att fatta moraliska beslut när grunden för moral och etik inte accepteras allmänt och kanske inte har lösningar? Vem kan avgöra om en algoritm gör rätt eller fel?

Crowdsourcing-strategin som antogs av forskare från Moral Machine är ganska pragmatisk. I slutändan måste allmänheten acceptera självkörande bilar att acceptera den moraliska grunden bakom deras beslut. Det kommer inte att vara bra om etiker eller advokater kommer med en lösning som är antingen oacceptabel eller oacceptabel för vanliga förare.

Resultaten leder till den märkliga slutsatsen att moraliska prioriteringar (och därmed de algoritmiska beslut som människor kan fatta) beror på var i världen du är.

Först och främst inser forskare att det är omöjligt att veta frekvensen eller arten av dessa situationer i verkligheten. Människor som ofta har varit inblandade i en olycka kan inte säga exakt vad som hände, och utbudet av möjliga situationer utesluter en enkel klassificering. För att problemet ska bli möjligt att spåra måste det därför delas upp i förenklade scenarier och letar efter universella moraliska regler och principer.

När du gör en undersökning får du tretton frågor som kräver ett enkelt ja eller inget val och försöker begränsa svaren på nio faktorer.

Ska bilen förvandlas till en annan körfält eller fortsätta röra sig? Ska du rädda unga människor, inte gamla? Kvinnor eller män? Djur eller människor? Ska du försöka rädda så många liv som möjligt eller är ett barn "värt" två äldre? Spara passagerare i en bil, inte fotgängare? De som inte följer reglerna eller de som inte följer reglerna? Ska du rädda människor som är fysiskt starkare? Vad sägs om människor med högre social status, till exempel läkare eller affärsmän?

I denna hårda hypotetiska värld måste någon dö, och du kommer att besvara var och en av dessa frågor - med varierande grad av entusiasm. Att fatta dessa beslut avslöjar emellertid också djupt ingripna kulturella normer och fördomar.

Bearbetningen av det enorma datasättet som undersökts av forskare ger universella regler såväl som nyfikna undantag. De tre mest dominerande faktorerna, i genomsnitt i hela befolkningen, var att alla föredrog att rädda fler liv än färre, människor snarare än djur och unga snarare än gamla.

Regionala skillnader

Du kan hålla med om dessa punkter, men ju djupare du tänker på dem, desto mer oroande kommer de moraliska slutsatserna att vara. Fler svarande valde att rädda kriminella över katten, men i allmänhet föredrog de att rädda hunden framför kriminella. I världsgenomsnittet är att vara gammal rankad högre än att vara hemlösa, men hemlösa räddades mindre än feta människor.

Och dessa regler var inte universella: respondenter från Frankrike, Storbritannien och USA föredrog de unga, medan respondenterna från Kina och Taiwan var mer villiga att rädda de äldre. Svarande från Japan föredrog att rädda fotgängare framför passagerare, medan de i Kina föredrar passagerare framför fotgängare.

Forskarna fann att de kunde gruppera svaren per land i tre kategorier:”Väst”, främst Nordamerika och Europa, där moral i hög grad bygger på kristen doktrin; "Öst" - Japan, Taiwan, Mellanöstern, där konfucianism och islam dominerar; "Södra" länder, inklusive Central- och Sydamerika, tillsammans med starkt fransk kulturellt inflytande. Det finns en starkare preferens för kvinnligt offer i det södra segmentet än någon annanstans. I det östra segmentet finns det en större tendens att rädda ungdomar.

Filtrering efter olika respondentattribut ger oändliga intressanta alternativ. "Mycket religiösa" respondenter föredrar sannolikt inte att rädda ett djur, men både religiösa och icke-religiösa respondenter uttrycker ungefär lika preferenser för att rädda människor med hög social status (även om detta kan sägas strida mot vissa religiösa doktriner). Män och kvinnor föredrar att rädda kvinnor, men män är mindre benägna att göra det.

Obesvarade frågor

Ingen påstår att denna forskning på något sätt "löser" alla dessa tunga moraliska problem. Studiens författare konstaterar att crowddsourcing online-data involverar partiskhet. Men även med en stor provstorlek var antalet frågor begränsat. Tänk om riskerna förändras beroende på vilket beslut du fattar? Vad händer om algoritmen kan beräkna att du bara hade 50 procents chans att döda fotgängare med tanke på hastigheten som du rörde?

Edmond Awad, en av studiens författare, uttryckte försiktighet vid övertolkning av resultaten. Diskussionen borde enligt hans åsikt flyta in i riskanalys - vem är mer eller mindre i riskzonen - istället för att bestämma vem som dör och vem inte.

Men det viktigaste resultatet av studien var diskussionen som blossade upp på dess jord. När algoritmer börjar fatta mer och mer viktiga beslut som påverkar människors liv är det absolut nödvändigt att vi har en kontinuerlig diskussion om AI: s etik. Att utforma ett "konstgjort samvete" måste inkludera allas åsikt. Även om svaren kanske inte alltid är enkla att hitta, är det bäst att försöka bilda en moralisk ram för algoritmer genom att inte låta algoritmer forma världen på egen hand utan mänsklig kontroll.

Rekommenderas: