Moralisk Maskin: Ingenjörer Gav Konstgjord Intelligens Moral Och Etik - Alternativ Vy

Innehållsförteckning:

Moralisk Maskin: Ingenjörer Gav Konstgjord Intelligens Moral Och Etik - Alternativ Vy
Moralisk Maskin: Ingenjörer Gav Konstgjord Intelligens Moral Och Etik - Alternativ Vy

Video: Moralisk Maskin: Ingenjörer Gav Konstgjord Intelligens Moral Och Etik - Alternativ Vy

Video: Moralisk Maskin: Ingenjörer Gav Konstgjord Intelligens Moral Och Etik - Alternativ Vy
Video: Vad är etik och moral? 2024, Maj
Anonim

Ju starkare AI kommer in i vårt dagliga liv, desto oftare måste det möta komplexa moraliska och etiska dilemman, vilket ibland inte är så lätt för en levande person att lösa. Forskare vid MIT försökte lösa detta problem och utrustade maskinen med förmågan att tänka i moral, baserat på de flesta levande människors åsikt.

Vissa experter tror att det bästa sättet att träna artificiell intelligens för att hantera moraliskt svåra situationer är att använda "publikupplevelse". Andra hävdar att detta tillvägagångssätt inte är utan partiskhet, och olika algoritmer kan komma till olika slutsatser från samma datamängd. Hur kan maskiner vara i en sådan situation, som uppenbarligen måste fatta svåra moraliska och etiska beslut när de arbetar med riktiga människor?

Intellekt och moral

I takt med att artificiell intelligens (AI) utvecklas försöker experter i allt högre grad lösa problemet med hur man bäst kan ge systemet en etisk och moralisk grund för vissa åtgärder. Den mest populära idén är att AI drar slutsatser genom att studera mänskliga beslut. För att testa detta antagande skapade forskare vid Massachusetts Institute of Technology Moral Machine. Webbplatsbesökare ombads att göra val om vad ett autonomt fordon ska göra när de står inför ett ganska tufft val. Till exempel är detta ett välbekant dilemma om en potentiell olycka, som bara har två alternativ för utveckling av händelser: en bil kan träffa tre vuxna för att rädda två barns liv, eller så kan den göra motsatsen. Vilket alternativ ska du välja? Och är det möjligt, till exempelatt offra livet för en äldre person för att rädda en gravid kvinna?

Som ett resultat samlade algoritmen en enorm databas med testresultat, och Ariel Procaccia från datavetenskapliga avdelningen vid Carnegie Mellon University beslutade att använda dem för att förbättra maskinintelligensen. I en ny studie laddade han och en av skaparna av projektet, Iyad Rahwan, hela basen av Moral Machine-projektet i AI och bad systemet att förutsäga hur bilen på autopilot skulle reagera på liknande men fortfarande lite olika scenarier. Procaccia ville visa hur ett röstningsbaserat system kan vara en lösning för "etisk" artificiell intelligens. " det är möjligt.

Korsmoral

Kampanjvideo:

Själva idén att välja mellan två moraliskt negativa resultat är inte ny. Etik använder en separat term för det: principen om dubbel effekt. Men det här är bioetikområdet, men ingen har tidigare använt ett sådant system på en bil och därför väckte studien särskilt intresse bland experter runt om i världen. OpenAIs medordförande Elon Musk anser att skapa "etisk" AI är en fråga om att utveckla tydliga riktlinjer eller policyer för att styra programutvecklingen. Politiker lyssnar gradvis på honom: till exempel skapade Tyskland världens första etiska principer för autonoma bilar. Till och med Googles alfabet AI DeepMind har nu en avdelning för etik och allmän moral.

Andra experter, inklusive ett team av forskare från Duke University, tror att det bästa sättet att gå vidare är att skapa en "allmän ram" som beskriver hur AI kommer att fatta etiska beslut i en given situation. De tror att enandet av kollektiva moraliska åsikter, som i samma moraliska maskin, kommer att göra artificiell intelligens ännu mer moralisk i framtiden än det moderna mänskliga samhället.

Kritik mot den "moraliska maskinen"

Hur som helst, för närvarande är principen om "majoritetsuppfattning" långt ifrån pålitlig. En grupp respondenter kan till exempel ha fördomar som inte är gemensamma för alla andra. Resultatet blir att AI som ges exakt samma dataset kan komma till olika slutsatser baserat på olika prover av den informationen.

För professor James Grimmelmann, som specialiserat sig på dynamiken mellan programvara, rikedom och makt, verkar själva idén om allmän moral felaktig. "Det kan inte lära sig AI-etik, utan bara ge det en sken av etiska standarder som finns i en viss del av befolkningen", säger han. Och Procaccia själv medger, som nämnts ovan, att deras forskning är inget annat än ett framgångsrikt bevis på koncept. Han är dock övertygad om att ett sådant tillvägagångssätt kan ge framgång för hela kampanjen för att skapa en mycket moralisk AI i framtiden. "Demokrati har utan tvekan ett antal brister, men som ett enhetligt system fungerar det - även om vissa fortfarande fattar beslut som majoriteten inte håller med."

Vasily Makarov

Rekommenderas: