Brottsprediktiv Artificiell Intelligens "avfyrad" - Alternativ Vy

Brottsprediktiv Artificiell Intelligens "avfyrad" - Alternativ Vy
Brottsprediktiv Artificiell Intelligens "avfyrad" - Alternativ Vy

Video: Brottsprediktiv Artificiell Intelligens "avfyrad" - Alternativ Vy

Video: Brottsprediktiv Artificiell Intelligens
Video: Artificiell intelligens - maskiner och människor 2024, Maj
Anonim

Compas-algoritmen, som har arbetat för den amerikanska polisen sedan 1998, analyserade de tilltalades uppgifter och hjälpte sedan, baserat på den mottagna informationen, att till exempel avgöra om brottslingen skulle släppas mot borgen eller skulle hållas i förvar. När man valde ett mått av återhållsamhet tog systemet hänsyn till ålder, kön och meriter inom den kriminella arenan. Under 20 års "tjänst" utvärderades algoritmen av mer än en miljon människor, men nyligen förklarades den inkompetent, varefter den omedelbart återkallades.

Forskare från Dartmouth College testade hur korrekt systemet är och om det kan lita på. För att göra detta rekryterade de frilansare, vanliga människor utan juridisk utbildning, för att fatta sina egna beslut baserat på kort information om människor, vilket gav ämnena information om kön, ålder, kriminell historia och flera andra parametrar.

Noggrannheten i prognosen för frilansare som hade ett litet underlag var nästan 70 procent, medan programmet låg efter med fem procent medan de förlitar sig på 137 biografipoäng. Analys av algoritmens bedömningar visade att svarta fångar är mer benägna att misstänks av programmet.

”Fel i sådana fall kan vara mycket dyra, så det är värt att överväga om denna algoritm alls ska användas för att avge domstolsavgöranden”, säger en av studieförfattarna.

Efter att ha studerat algoritmens princip kom forskarna till slutsatsen att ju yngre svaranden och ju fler arresteringar han har bakom sig, desto större är sannolikheten för ett återfall, därför erkände AI-specialister tekniken som opålitlig.

Viacheslav Larionov

Rekommenderas: