Människor Litar Inte På Artificiell Intelligens. Hur Fixar Jag Det? - Alternativ Vy

Innehållsförteckning:

Människor Litar Inte På Artificiell Intelligens. Hur Fixar Jag Det? - Alternativ Vy
Människor Litar Inte På Artificiell Intelligens. Hur Fixar Jag Det? - Alternativ Vy

Video: Människor Litar Inte På Artificiell Intelligens. Hur Fixar Jag Det? - Alternativ Vy

Video: Människor Litar Inte På Artificiell Intelligens. Hur Fixar Jag Det? - Alternativ Vy
Video: Artificiell intelligens – ett hot mot mänskligheten | Anders Sandberg Idévärlden 2024, Maj
Anonim

Artificiell intelligens kan redan förutsäga framtiden. Polisen använder den för att ta fram en karta som visar när och var brott kan inträffa. Läkare använder det för att förutsäga när en patient kan få en stroke eller hjärtinfarkt. Forskare försöker till och med ge AI fantasin så att den kan förutse oväntade händelser.

Många beslut i vårt liv kräver goda förutsägelser, och AI-agenter är nästan alltid bättre på dem än människor. Men för alla dessa tekniska framsteg saknar vi fortfarande förtroende för de förutsägelser som artificiell intelligens ger. Människor är inte vana att förlita sig på AI och föredrar att lita på mänskliga experter, även om dessa experter har fel.

Image
Image

Om vi vill att artificiell intelligens ska gynna människor måste vi lära oss att lita på den. För att göra detta måste vi förstå varför människor är så ihärdiga att vägra att lita på AI.

Lita på Dr. Robot

IBMs försök att presentera ett superdatorprogram för onkologer (Watson for Oncology) misslyckades. AI har lovat att tillhandahålla högkvalitativa behandlingsrekommendationer för 12 cancerformer, som står för 80% av världens fall. Hittills har mer än 14 000 patienter fått rekommendationer baserat på hans beräkningar.

Men när läkare först mötte Watson befann de sig i en ganska svår situation. Å ena sidan, medan Watson tillhandahöll riktlinjer för behandling som var förenliga med deras egna åsikter, såg läkare inte mycket värde i AI-rekommendationer. Superdatorn berättade helt enkelt för dem vad de redan visste, och dessa rekommendationer förändrade inte den faktiska behandlingen. Detta kan ha gett läkare sinnesfrid och förtroende för sina egna beslut. Men IBM har ännu inte bevisat att Watson faktiskt ökar canceröverlevnadsgraden.

Kampanjvideo:

Image
Image

Å andra sidan, om Watson gjorde rekommendationer som stred mot expertutlåtandet, drog läkare slutsatsen att Watson var inkompetent. Och maskinen kunde inte förklara varför dess behandling skulle fungera eftersom dess maskininlärningsalgoritmer var för komplexa för människor att förstå. Följaktligen ledde detta till ännu mer misstro, och många läkare ignorerade helt enkelt AI-rekommendationerna och förlitade sig på sin egen erfarenhet.

Som ett resultat meddelade IBM Watsons Chief Medical Partner, MD Anderson Cancer Center, nyligen att man avbryter programmet. Det danska sjukhuset sa också att det övergav programmet efter att det upptäckte att onkologer var oense med Watson vid två av tre tillfällen.

Problemet med Watson onkologi var att läkarna helt enkelt inte litade på honom. Människors förtroende beror ofta på vår förståelse för hur andra tänker och vår egen erfarenhet, vilket bygger förtroende för deras åsikt. Detta skapar en psykologisk känsla av säkerhet. AI är å andra sidan relativt ny och obegriplig för människor. Det fattar beslut baserat på ett sofistikerat analyssystem för att identifiera potentiella dolda mönster och svaga signaler från stora datamängder.

Även om det kan förklaras i tekniska termer är beslutsprocessen för AI vanligtvis för komplex för de flesta att förstå. Att interagera med något vi inte förstår kan orsaka ångest och skapa en känsla av förlust av kontroll. Många människor förstår helt enkelt inte hur och med vad AI fungerar, för det händer någonstans bakom skärmen, i bakgrunden.

Av samma skäl är de mer medvetna om fall där AI är fel: tänk på Google-algoritmen som klassificerar människor i färg som gorillor; Microsofts chatbot som blev nazist på mindre än en dag; Tesla-fordon i autopilotläge som resulterar i dödlig olycka. Dessa olyckliga exempel har fått oproportionerlig medieuppmärksamhet och markerat agendan som vi inte kan lita på teknik. Maskininlärning är inte 100% tillförlitligt, delvis för att människor utformar det.

En splittring i samhället?

De känslor som artificiell intelligens framkallar går djupt in i människans natur. Forskare genomförde nyligen ett experiment där de undersökte människor som tittade på filmer om artificiell intelligens (fantasi) om ämnet automatisering i vardagen. Det visade sig att oavsett om AI presenterades på ett positivt eller negativt sätt, helt enkelt att titta på en filmisk representation av vår tekniska framtid polariserar deltagarnas attityder. Optimister blir ännu mer optimistiska och skeptiker stänger ännu mer.

Detta tyder på att människor är partiska mot AI baserat på sina egna resonemang, en djupgående tendens till bekräftelseförskjutning: tendensen att söka eller tolka information på ett sådant sätt att man bekräftar befintliga begrepp. Eftersom AI alltmer presenteras i media kan det främja djupa splittringar i samhället, en klyfta mellan dem som använder AI och de som avvisar den. En dominerande grupp människor kan få en stor fördel eller ett handikapp.

Tre vägar ut ur AI-förtroendekrisen

Lyckligtvis har vi några tankar om hur vi ska hantera förtroende för AI. Erfarenhet av AI enbart kan dramatiskt förbättra människors attityder till denna teknik. Det finns också bevis för att ju oftare du använder vissa tekniker (t.ex. Internet), desto mer litar du på dem.

En annan lösning kan vara att öppna den svarta rutan med maskininlärningsalgoritmer och få dem att fungera mer öppet. Företag som Google, Airbnb och Twitter publicerar redan transparensrapporter om statliga förfrågningar och avslöjanden. Denna typ av övning i AI-system hjälper människor att få den nödvändiga förståelsen för hur algoritmer fattar beslut.

Forskning visar att att involvera människor i AI-beslutsfattande också kommer att öka förtroendet och låta AI lära av mänsklig erfarenhet. Studien visade att personer som fick möjlighet att modifiera algoritmen något kände sig mer nöjda med resultaten av sitt arbete, troligtvis på grund av en känsla av överlägsenhet och förmågan att påverka framtida resultat.

Vi behöver inte förstå de invecklade inre funktionerna i AI-system, men om vi till och med ger människor lite information och kontroll över hur dessa system implementeras, kommer de att ha mer självförtroende och en önskan att omfamna AI i deras dagliga liv.

Ilya Khel

Rekommenderas: