Konstgjord Intelligens Har Lärt Sig Att Se Nätverkstroll - Alternativ Vy

Konstgjord Intelligens Har Lärt Sig Att Se Nätverkstroll - Alternativ Vy
Konstgjord Intelligens Har Lärt Sig Att Se Nätverkstroll - Alternativ Vy

Video: Konstgjord Intelligens Har Lärt Sig Att Se Nätverkstroll - Alternativ Vy

Video: Konstgjord Intelligens Har Lärt Sig Att Se Nätverkstroll - Alternativ Vy
Video: Artificiell Intelligens: En introduktion 2024, Maj
Anonim

Artificiell intelligens läste de aggressiva kommentarerna från Reddit-användare och förstod hur människor som hatar andra människor pratar. Det är svårare att lura honom än en vanlig botmoderator.

Internet är bebott av feta och tunna troll och bara oförskämda människor som inte går i fickorna för ord. Att moderera Internet manuellt är ett hårt och tacklöst jobb. Bots som är programmerade för att söka efter ord från den "förbjudna listan" klarar sig bättre, men de kan inte veta när en kaustisk kommentar med kodord är ett ofarligt skämt och när det är en ond verbal attack.

Forskare i Kanada har lärt sig konstgjord intelligens för att särskilja oförskämda skämt från skadliga skämt och vad sociologer kallar "hatprat."

Dana Wormsley, en av skaparna av AI, konstaterar att "hatprat" är svårt att formalisera. Formellt stötande ord kan faktiskt användas både med ironi och i deras mildare betydelse; bara några av texterna som innehåller sådana ord väcker allvarligt upp och förödmjukar. Vi kommer inte att ge några exempel, eftersom de regeringsorganisationer som reglerar Internet i Ryssland ännu inte har artificiell intelligens).

Neuralnätverket tränades på prover från uttalanden från medlemmar i gemenskapen kända för sin fientlighet mot olika grupper av befolkningen. Neuralnätverket lärt sig från Reddit inlägg, en plattform där du kan hitta ett stort antal intressegrupper, från medborgerliga aktivister till radikala misogynister. De texter som laddades upp till systemet förolämpade ofta afroamerikaner, överviktiga människor och kvinnor.

Ett neuralt nätverk utbildat på detta sätt gav färre falska positiva effekter än program som bestämmer "hatprat" med nyckelord. Systemet fångade rasism där det inte fanns några indikatorord alls. Men trots bra prestanda är skaparna av AI-moderatoren inte säkra på att deras utveckling kommer att användas i stor utsträckning. Hittills har hon framgångsrikt hittat hatytringar på Reddit, men huruvida hon kommer att kunna göra detsamma på Facebook och andra plattformar är okänt. Dessutom är systemet ofullständigt, ibland missar många av de till synes oförskämda rasistiska uttalandena som en sökords sökmotor inte skulle missa. Den enda som kan skilja en förolämpning från ett oskyldigt skämt medan personen kvarstår.

Rekommenderas: