Varför är Artificiell Intelligens Att Bedöma Brottslingar Farligt? - Alternativ Vy

Innehållsförteckning:

Varför är Artificiell Intelligens Att Bedöma Brottslingar Farligt? - Alternativ Vy
Varför är Artificiell Intelligens Att Bedöma Brottslingar Farligt? - Alternativ Vy

Video: Varför är Artificiell Intelligens Att Bedöma Brottslingar Farligt? - Alternativ Vy

Video: Varför är Artificiell Intelligens Att Bedöma Brottslingar Farligt? - Alternativ Vy
Video: Artificiell intelligens - Vad är det och varför skall du bry dig? | Google Digitalakademin 2024, Maj
Anonim

Artificiell intelligens hjälper redan till att avgöra din framtid på något sätt. När du söker efter något i en sökmotor, använd en tjänst som Netflix, eller en bank utvärderar din lämplighet för en inteckning. Men vad händer om artificiell intelligens måste avgöra om du är skyldig eller inte, i domstol? Konstigt nog kan detta redan hända i vissa länder. Nyligen frågades USA: s högsta rättvisa John Roberts om han kunde tänka sig en dag då "smarta maskiner, kontrollerade av artificiell intelligens, kommer att hjälpa till att hitta bevis eller till och med att fatta rättsliga beslut." Han svarade: "Den här dagen har redan kommit och han hjälper de rättsliga myndigheterna avsevärt i förfarandet."

Kanske hänvisade Roberts till det senaste fallet med Eric Loomis, som dömdes till sex års fängelse på rekommendation av hemlig programvara från ett privat företag. Loomis, som redan hade en kriminell historia och dömdes för att fly från polisen i en stulen bil, hävdar nu att hans rätt till förfarande har kränkts eftersom varken han eller hans representanter kunde granska eller ifrågasätta rekommendationsalgoritmen.

Rapporten utarbetades av Compas-programvaran, som säljs av Notrpointe till fartyg. Programmet förkroppsligar en ny trend inom AI-forskning: att hjälpa domare att göra "bättre" (eller åtminstone mer datadrivna) beslut i domstol.

Medan de specifika detaljerna i Loomis-ärendet förblir stängda innehåller det verkligen diagram och siffror som definierar Loomis liv, beteende och sannolikheten för ett återfall. Dessa inkluderar ålder, ras, könsidentitet, vanor, webbläsarhistorik och några mätningar av skallen. Ingen vet mer exakt.

Det är känt att åklagaren i målet berättade för domaren att Loomis visade "en hög risk för återfall, våld, förhandlingsförfarande." Detta är standard när det gäller dömande. Domaren instämde och sa till Loomis att "Compas identifierade honom som en person med hög risk för samhället."

Högsta domstolen i Wisconsin dömde Loomis och tillade att Compas-rapporten tillförde värdefull information till hans beslut, men noterade att utan honom dömde han samma straff. Naturligtvis kommer du inte att kunna kontrollera detta säkert. Vilka kognitiva fördomar kan det finnas när ett allsmäktigt”smart” system som Compas är inblandat i rådgivning av domare om vad man ska göra?

Okänd användning

Kampanjvideo:

Låt oss vara ärliga, det finns inget”olagligt” med vad Wisconsin-domstolen gjorde - detta är bara ett exempel. Andra domstolar kan och kommer att göra detsamma.

Tyvärr vet vi inte i vilken utsträckning AI och andra algoritmer används vid dömningen. Man tror att vissa domstolar "testar" system som Compas i slutna rättegångar, men kan inte göra anspråk på ett partnerskap. Det finns också en uppfattning att flera AI-startups utvecklar sådana smarta system.

Image
Image

Användningen av AI i lagstiftningen börjar dock inte eller slutar med en mening utan den börjar med en utredning. Storbritannien har redan utvecklat VALCRI-systemet, som utför tidskrävande analytiskt arbete på några sekunder - smyga igenom massor av data som texter, laboratorierapporter och polisdokument för att lyfta fram saker som kan kräva ytterligare utredning.

UK West Midlands Police kommer att testa VALCRI under de närmaste tre åren med hjälp av anonyma uppgifter som innehåller över 6,5 miljoner poster. Ett liknande test utförs av polisen i Antwerpen i Belgien. Tidigare har dock AI och djupinlärningsprojekt med massiva datamängder varit problematiska.

Fördelar för få

Teknik har gett många användbara hjälpmedel till rättssalen, från kopieringsmaskiner till DNA-extraktion från fingeravtryck till sofistikerade övervakningstekniker. Men det betyder inte att någon teknik är en förbättring.

Användningen av AI i utredningar och övertygelser kan potentiellt spara tid och pengar, men det medför akuta problem. En Compas-rapport från ProPublica gjorde det klart att svarta felaktigt ansågs av programmet vara mer återkommande än vita. Även de mest sofistikerade AI-systemen kan ärva ras och könsfördomar hos dem som skapar dem.

Dessutom, vad är poängen med att flytta beslutsfattande (åtminstone delvis) om frågor som är unika för människor till en algoritm? Det finns en viss svårighet i USA när juryn prövar sina kamrater. Juridiska standarder har aldrig varit riktmärket, varför dessa juryrättegångar anses vara de mest demokratiska och effektiva övertygelsessystemen. Vi gör misstag, men med tiden samlar vi kunskap om hur vi inte gör dem, förfina systemet.

Compas och liknande system representerar en svart ruta i det juridiska systemet. Det borde inte finnas sådant. Juridiska system är beroende av informationens kontinuitet, transparens och förmågan att granska. Samhället vill inte ha ett system som uppmuntrar loppet att bygga AI-startups som gör snabba, billiga och exklusiva lösningar. En hastigt gjord AI kommer att vara hemskt.

En uppdaterad öppen källkodsversion av Compas skulle vara en förbättring. Men först måste rättssystemets standarder höjas innan vi börjar skifta ansvar till förmån för algoritmer.

ILYA KHEL

Rekommenderas: