AI Kan Förändra Våra Liv För Alltid - Men Vi är För Närvarande På En Mörk Väg - Alternativ Vy

AI Kan Förändra Våra Liv För Alltid - Men Vi är För Närvarande På En Mörk Väg - Alternativ Vy
AI Kan Förändra Våra Liv För Alltid - Men Vi är För Närvarande På En Mörk Väg - Alternativ Vy

Video: AI Kan Förändra Våra Liv För Alltid - Men Vi är För Närvarande På En Mörk Väg - Alternativ Vy

Video: AI Kan Förändra Våra Liv För Alltid - Men Vi är För Närvarande På En Mörk Väg - Alternativ Vy
Video: Sommar rör ström. Vi svarar på frågor. 2024, April
Anonim

Artificiell intelligens (AI) omformar redan världen på synliga sätt. Data driver vårt globala digitala ekosystem och AI-teknologier upptäcker mönster i data.

Smarttelefoner, smarta hem och smarta städer påverkar sättet vi lever och interagerar med, och konstgjorda intelligenssystem involveras alltmer i anställningsbeslut, medicinsk diagnostik och bedömning. Oavsett om detta scenario är utopiskt eller dystopiskt är det upp till oss.

De potentiella riskerna med AI listas många gånger. Mordroboter och massiv arbetslöshet är vanliga problem, medan vissa människor till och med fruktar utrotning. Mer optimistiska prognoser hävdar att AI kommer att lägga till 15 biljoner dollar till den globala ekonomin år 2030 och så småningom leda oss till någon form av social nirvana.

Vi måste verkligen överväga vilken inverkan sådan teknik har på våra samhällen. En viktig fråga är att AI-system förstärker befintliga sociala fördomar - till en förödande effekt.

Flera ökända exempel på detta fenomen har fått stor uppmärksamhet: moderna automatiserade maskinöversättningssystem och bildigenkänningssystem.

Dessa problem uppstår eftersom sådana system använder matematiska modeller (som neurala nätverk) för att definiera mönster i stora utbildningsdatasätt. Om dessa uppgifter är hårt förvrängda på olika sätt, kommer inbyggda fel oundvikligen att studeras och reproduceras av utbildade system.

Partisk självständig teknik är problematisk eftersom de potentiellt kan isolera grupper som kvinnor, etniska minoriteter eller äldre, och därmed förvärra befintliga sociala obalanser.

Om AI-system utbildas, till exempel från polisens arresteringsdata, kommer alla medvetna eller omedvetna fördomar som manifesteras i befintliga arresteringsprogram att kopieras av AI-systemet för polis framsyn”som tränas från dessa uppgifter.

Kampanjvideo:

I erkännande av de allvarliga konsekvenserna av detta har olika välrenommerade organisationer nyligen rekommenderat att alla system för konstgjord intelligens tränas på objektiv data. Etiska riktlinjer som publicerades tidigare av Europeiska kommissionen 2019 föreslog följande rekommendation:

När data samlas in kan det innehålla socialt konstruerade fel, felaktigheter. Detta måste åtgärdas innan du utbildar AI i något datasätt.

Allt detta låter tillräckligt rimligt. Tyvärr är det ibland helt enkelt inte möjligt att säkerställa opartiskheten hos vissa datasätt före utbildningen. Ett konkret exempel bör klargöra detta.

Alla moderna maskinöversättningssystem (som Google Translate) lär sig från meningspar.

Det anglo-franska systemet använder data som länkar engelska meningar ("hon är lång") med motsvarande franska meningar ("elle est grande").

Det kan finnas 500 miljoner sådana par i en given träningsdatasats, och därför bara en miljard enskilda meningar. Alla könsförskjutningar måste tas bort från den här typen av dataset om vi ska förhindra att resultat som följande genereras i systemet:

Den franska översättningen skapades med Google Translate den 11 oktober 2019 och är felaktig: "Ils" är ett maskulint flertal på franska och visas här trots att sammanhanget tydligt indikerar att det hänvisas till på kvinnor.

Detta är ett klassiskt exempel på ett automatiserat system som föredrar den standard manliga standarden på grund av förspänning i träningsdata.

Sammantaget är 70 procent av de generiska pronomenna i översättningsdatasätten maskulina och 30 procent är feminina. Detta beror på att texter som används för sådana syften oftare avser män än kvinnor.

För att undvika att upprepa de befintliga felen i översättningssystemet skulle det vara nödvändigt att utesluta specifika par av meningar från uppgifterna så att de maskulina och feminina pronomen möts i ett förhållande på 50/50 både på engelska och franska. Detta kommer att förhindra systemet att tilldela högre sannolikheter till maskulina pronomen.

Och även om den resulterande delmängden av uppgifterna är helt könsbalanserad kommer den fortfarande att ske på olika sätt (t.ex. etnisk eller ålder). I själva verket skulle det vara svårt att helt eliminera alla dessa fel.

Om en person ägnar bara fem sekunder åt att läsa var och en av de en miljard meningarna i AI-träningsdata, kommer det att ta 159 år att testa dem alla - och det förutsätter villigheten att arbeta hela dagen och natten, utan lunchpauser.

Alternativ?

Därför är det orealistiskt att kräva att alla träningsdatasätt är opartiska innan AI-system byggs. Sådana krav på hög nivå antar vanligtvis att”AI” betecknar ett homogent kluster av matematiska modeller och algoritmiska tillvägagångssätt.

I själva verket kräver olika AI-uppgifter helt olika typer av system. Och att helt underskatta denna mångfald maskerar de verkliga problemen i samband med, till exempel, mycket förvrängd data. Detta är olyckligt eftersom det innebär att andra lösningar på dataförskjutningsproblemet försummas.

T.ex. kan förspänningar i ett tränat maskinöversättningssystem reduceras avsevärt om systemet anpassas efter det att det har tränats på ett stort, oundvikligen partisk datasæt.

Detta kan göras med ett mycket mindre, mindre trassligt datasätt. Därför kan de flesta uppgifterna vara mycket partiska, men ett utbildat system är inte nödvändigt. Tyvärr diskuteras dessa metoder sällan av dem som utvecklar riktlinjer och rättsliga ramar för AI-forskning.

Om AI-system helt enkelt förvärrar befintliga sociala obalanser, är de mer benägna att motverka än främja positiv social förändring. Om de AI-tekniker som vi i allt högre grad använder dagligen var mycket mindre partiska än vi är, kan de hjälpa oss att känna igen och konfrontera våra egna lurande fördomar.

Naturligtvis är det detta vi bör sträva efter. Därför måste AI-konstruktörer tänka mycket noggrant på de sociala konsekvenserna av systemen de skapar, medan de som skriver om AI måste förstå djupare hur AI-system faktiskt designas och byggs.

För om vi verkligen närmar oss antingen en teknologisk idyll eller en apokalyps, skulle den förra föredras.

Victoria Vetrova

Rekommenderas: