Konstgjord Intelligens Visade Sig Vara En Rasistisk - Alternativ Vy

Konstgjord Intelligens Visade Sig Vara En Rasistisk - Alternativ Vy
Konstgjord Intelligens Visade Sig Vara En Rasistisk - Alternativ Vy

Video: Konstgjord Intelligens Visade Sig Vara En Rasistisk - Alternativ Vy

Video: Konstgjord Intelligens Visade Sig Vara En Rasistisk - Alternativ Vy
Video: Vi frågar kommunalråd om deras bussvanor 2024, April
Anonim

En studie av forskare från Massachusetts Institute of Technology har avslöjat detaljerna i processen för dataanalys med konstgjord intelligens, som ofta styrs av sexistiska och rasistiska stereotyper i beslutsfattandet. Flera system som deltog i experimentet visade känslighet för mänskliga fördomar.

Den brittiska tidningen "The Daily Mail" skriver att efter att ha fått resultaten av studien åtog sig forskargruppen att omprogrammera den konstgjorda intelligensen och eliminera tidigare problem. Enligt Irene Chen, som arbetar vid Massachusetts Institute of Technology, tenderar datavetare att komma till slutsatsen att det enda sättet att eliminera element av rasism och sexism i algoritmer för konstgjord intelligens är att förbättra programvarukoden. Kvaliteten på algoritmer är direkt proportionell mot de data de använder. Undersökningar av Chen med David Sontag och Fredrik D. Johannson visar att mer tillgängliga data radikalt kan förändra saker till det bättre.

I ett experiment såg teamet på ett system som förutspådde en persons inkomst baserat på tillgänglig information. Analys har visat att algoritmen i 50% av fallen tenderar att förutsäga att en kvinnas inkomst i genomsnitt kommer att vara mindre än en mans. Genom att öka mängden tillgängliga data 10 gånger fann forskarna att faktorn för ett sådant fel minskade med 40%.

I en studie av systemet som används på sjukhus och förutsäger överlevnaden för patienter som genomgår allvarlig operation var dessutom noggrannheten i förutsägelser mycket lägre för Mongoloidrasen än för kaukasierna och negroiderna. Men forskare hävdar att användningen av avancerad analysteknik väsentligt kan minska prediktionsnoggrannheten för patienter som inte tillhör Mongoloid rasen. Detta visar att fler tillgängliga data kanske inte alltid korrigerar algoritmfel. Istället borde forskare få mer information om diskriminerade grupper.

Den nya metoden väcker ytterligare en fråga för maskininlärningsforskare om hur man effektivt kan analysera data utan befintlig diskriminering.

Hur fungerar maskininlärning i AI-drivna system?

Konstgjorda intelligenssystem är baserade på konstgjorda neurala nätverk (ANN), som extrapolerar informationslagrings- och inlärningstekniker som används av den mänskliga hjärnan till mekaniska system. ANNs tränar för att hitta mönster i tillgängliga informationskällor, inklusive tal, text och bilder. Att förbättra noggrannheten i dataanalys är en av de grundläggande förutsättningarna som föregår den senaste utvecklingen inom artificiell intelligens.

"Normal" konstgjord intelligens använder inmatningsdata för att berätta algoritmen om analysens ämne medan de arbetar med en enorm mängd information.

Kampanjvideo:

Praktiska tillämpningar av maskininlärning inkluderar Googles översättningstjänster, ansiktsigenkänning från Facebook-foton och filter på Snapchat som skannar ansikten innan du använder visuella effekter online.

Datainmatningsprocessen är ofta tidskrävande och begränsas vanligtvis av informationsflödet om en aspekt av objektet som studeras. En ny typ av ANN - ett generativt-motsatt nervnätverk - motsätter sig kapaciteten hos två olika robotar med artificiell intelligens på en gång, vilket provocerar ett mindre intelligent system att lära sig på bekostnad av den andra utan mänskligt deltagande. Denna teknik förbättrar dramatiskt effektiviteten och hastigheten för maskininlärning och ökar kvaliteten på dataanalysen.

Oliy Kurilov