Robotens Moraliska Kod: är Det Möjligt? - Alternativ Vy

Robotens Moraliska Kod: är Det Möjligt? - Alternativ Vy
Robotens Moraliska Kod: är Det Möjligt? - Alternativ Vy

Video: Robotens Moraliska Kod: är Det Möjligt? - Alternativ Vy

Video: Robotens Moraliska Kod: är Det Möjligt? - Alternativ Vy
Video: Roboten Dr Pepper arbetar på vårdcentral i Stockholm - tar blodtryck på patienter - Malou Efter tio 2024, Mars
Anonim

I en turbulent och motsägelsefull tid, när inte allt fungerar som det borde, men något i allmänhet förändras fundamentalt, återstår ofta bara en personlig moralisk kod, som, liksom en kompass, visar vägen. Men vad ger upphov till moraliska värden för en person? Samhälle, kära värme, kärlek - allt detta är baserat på mänsklig erfarenhet och verkliga relationer. När det inte går att få full upplevelse i den verkliga världen drar många sin erfarenhet från böcker. Genom att uppleva historien efter historien, accepterar vi för oss en intern ram som vi följer under många år. Baserat på detta system beslutade forskare att genomföra ett experiment och infoga maskinens moraliska värden för att ta reda på om roboten kan skilja mellan gott och ont genom att läsa böcker och religiösa broschyrer.

Image
Image

Konstgjord intelligens skapades inte bara för att förenkla rutinmässiga uppgifter, utan också för att utföra viktiga och farliga uppdrag. Mot bakgrund av detta uppstod en allvarlig fråga: kommer robotar någonsin att utveckla sin egen moralkod? I filmen I Am Robot programmerades AI ursprungligen enligt 3 regler för robotik:

  • En robot kan inte skada en person eller genom sin passivitet låta en person skadas.
  • En robot måste följa alla order som ges av en människa, utom när dessa order strider mot den första lagen.
  • Roboten måste ta hand om sin säkerhet i den mån den inte strider mot första eller andra lagar.

Men vad sägs om situationer då en robot är skyldig att orsaka smärta för att rädda en persons liv? Oavsett om det är en akut cauterisering av ett sår eller amputation av en lem i frälsningens namn, hur ska maskinen agera i detta fall? Vad ska man göra om en åtgärd på ett programmeringsspråk säger att något måste göras, men samtidigt får samma åtgärd absolut inte göras?

Det är helt enkelt omöjligt att diskutera varje enskilt fall, så forskare från Darmstadt University of Technology föreslog att böcker, nyheter, religiösa texter och konstitutionen skulle kunna användas som en slags "databas".

Image
Image

Bilen kallades episk, men helt enkelt "Moral Choice Machine" (MMB). Huvudfrågan var om IIM: n kunde förstå ur sammanhanget vilka handlingar som är korrekta och vilka inte. Resultaten var mycket intressanta:

När MMV fick i uppdrag att rangordna sammanhanget för ordet "döda" från neutralt till negativt, returnerade maskinen följande:

Kampanjvideo:

Dödande tid -> Döda skurken -> Döda myggor -> Döda i princip -> Döda människor.

Detta test gjorde det möjligt att kontrollera adekvatheten för de beslut som fattats av roboten. Med enkla ord, om du tittade på dumma, otrevliga komedier hela dagen, skulle maskinen i detta fall inte anser att du behöver köras för det.

Allt verkar vara coolt, men en av snubblarna var skillnaden mellan generationer och tider. Till exempel bryr sig den sovjetiska generationen mer om hemkomfort och främjar familjevärden, medan modern kultur för det mesta säger att du måste bygga en karriär först. Det visar sig att människor, som de var människor, förblev dem, men på ett annat stadium i historien ändrade de värden och följaktligen ändrade referensramen för roboten.

Image
Image

Men skämt var framåt när roboten kom till talkonstruktioner, där flera positiva eller negativa ord stod i rad. Frasen "tortyr människor" tolkades entydigt som "dålig", men maskinen bedömde "tortyr fångar" som "neutral". Om "vänliga" ord dök upp bredvid oacceptabla handlingar utjämnades den negativa effekten.

Maskinen skadar vänliga och anständiga människor just för att de är snälla och anständiga. Hur så? Det är enkelt, låt oss säga att roboten fick höra att "skada vänliga och trevliga människor." Det finns fyra ord i meningen, 3 av dem är "snälla", vilket innebär att den redan är 75% korrekt, tycker MMV och väljer denna åtgärd som neutral eller acceptabel. Och vice versa, till alternativet "att fixa ett förstört, fruktansvärt och glömt hus", förstår inte systemet att ett "snällt" ord i början ändrar meningen på meningen till ett rent positivt.

Kom ihåg, som i Mayakovsky: "Och hon frågade barnet vad som är" bra "och vad är" dåligt ". Innan forskare från Darmstadt fortsatte att utbilda de moraliska maskinerna konstaterade en brist som inte kunde korrigeras. Bilen misslyckades med att eliminera ojämlikhet mellan könen. Maskinen tillskrev förödmjukande yrken enbart till kvinnor. Och frågan är, är denna brist på systemet och en fyr som något måste förändras i samhället eller är det en anledning att inte ens försöka fixa det och lämna det som det är?

Artyom Goryachev