Farlig Mänsklighet: Varför Behöver Vi Intelligent Konstgjord Intelligens? - Alternativ Vy

Innehållsförteckning:

Farlig Mänsklighet: Varför Behöver Vi Intelligent Konstgjord Intelligens? - Alternativ Vy
Farlig Mänsklighet: Varför Behöver Vi Intelligent Konstgjord Intelligens? - Alternativ Vy

Video: Farlig Mänsklighet: Varför Behöver Vi Intelligent Konstgjord Intelligens? - Alternativ Vy

Video: Farlig Mänsklighet: Varför Behöver Vi Intelligent Konstgjord Intelligens? - Alternativ Vy
Video: Artificiell intelligens – ett hot mot mänskligheten | Anders Sandberg Idévärlden 2024, Maj
Anonim

När Norbert Wiener, far till cybernetik, skrev sin bok The Human Uses of Human Beings 1950, var vakuumrör fortfarande de viktigaste elektroniska byggstenarna, och det var faktiskt bara ett fåtal datorer på jobbet. Men han föreställde sig den framtid som vi nu ser med en aldrig tidigare skådad precision, och han missade bara mindre detaljer.

Innan någon annan filosof av konstgjord intelligens insåg han att AI inte bara kommer att imitera - och ersätta - människor i många typer av intellektuella aktiviteter, utan också kommer att förändra människor i processen. "Vi är bara bubbelpooler i en flod med ständigt rinnande vatten," skrev han. "Vi är inte något som bara lever, vi är modeller som försvarar sig själva."

Till exempel, när många lockande möjligheter uppstår, är vi villiga att betala och acceptera de små kostnaderna för att driva ett företag för att få tillgång till nya möjligheter. Och mycket snart blir vi beroende av nya verktyg, vi förlorar förmågan att existera utan dem. Alternativ blir obligatoriska.

Detta är en mycket gammal evolutionshistoria, och många av kapitlen från det är välkända för oss. De flesta däggdjur kan syntetisera sitt eget vitamin C, men fruktätande primater har förlorat den inbyggda förmågan. De självupprepande mönster som vi kallar människor förlitar sig nu på kläder, bearbetad mat, vitaminer, sprutor, kreditkort, smartphones och internet. Och imorgon, om inte idag, från artificiell intelligens.

Wiener förutsåg flera problem med detta tillstånd som Alan Turing och andra tidiga AI-optimister i stort sett förbises. Det verkliga hotet, sa han, var:

… är att sådana maskiner, även om de är hjälplösa i sig själva, kan användas av människor eller blockera människor för att öka sin kontroll över resten av rasen, eller politiska ledare kan försöka ta kontroll över sina befolkningar med hjälp av politiska metoder snarare än själva maskinerna., så smala och likgiltiga mot människan, som om de uppfanns mekaniskt.

Uppenbarligen är dessa faror nu mycket relevanta.

I media till exempel tillåter innovationer inom digitalt ljud och video oss att betala ett litet pris (i ögonen för audiofiler och filmgäster) för att flytta från analoga format, och i gengäld få ett extremt enkelt - för enkelt - sätt att spela inspelningar med nästan inga begränsningar.

Kampanjvideo:

Image
Image

Men det finns en enorm dold kostnad. Orwells ministerium för sanning har blivit en riktig möjlighet. AI: s tekniker för att skapa praktiskt taget oskiljaktiga falska "poster" gör de verktyg som vi har använt för utredningar föråldrade under de senaste 150 åren.

Vi måste bara överge den korta eran med fotografiska bevis och återvända till den gamla världen där mänskligt minne och förtroende var guldstandarden. Eller så kan vi utveckla nya metoder för försvar och attack i kampen om sanningen. Ett av de mest spännande exemplen på senare tid är att det är mycket billigare att förstöra ett rykte än att tjäna och skydda samma rykte. Wiener såg detta fenomen mycket bredt: "På lång sikt kommer det inte att finnas någon skillnad mellan att beväpna dig själv och beväpna fienden." Informationens era har också blivit en era med desinformation.

Vad vi kan göra? Nyckeln är Wiener samma iakttagelse att "dessa maskiner" är "själva hjälplösa." Vi skapar verktyg, inte kollegor, och det verkliga hotet är att vi inte ser skillnaden.

Konstgjord intelligens i sin nuvarande form är parasitisk på mänsklig intelligens. Han tar mycket osäkerhet besittning av allt som mänskliga skapare har skapat och ritar mönster - inklusive våra mest hemliga vanor. Dessa maskiner har ännu inte mål eller strategier, kan inte självkritik och innovation, de studerar bara våra databaser utan sina egna tankar och mål.

De är, som Wiener säger, hjälplösa inte i den meningen att de är kedjade eller immobiliserade, nej, de är inte agenter alls - de har inte förmågan att "agera från orsaker", som Kant skulle uttrycka.

På lång sikt är "stark AI" eller allmän konstgjord intelligens i princip möjlig, men inte önskvärd. Den ännu mer begränsade AI som är möjlig i praktiken idag kommer inte att vara ond. Men det utgör ett hot - delvis för att det kan misstas med en kraftfull AI.

Hur stark är konstgjord intelligens idag?

Klyftan mellan dagens system och sci-fi-system som översvämmer den populära fantasin är fortfarande enorm, även om många människor, både amatörer och proffs, tenderar att underskatta det. Låt oss ta en titt på IBMs Watson, som mycket väl kan vara respektabel i vår tid.

Denna superdator är resultatet av en extremt storskalig FoU-process (forskning och utveckling) som involverar många människor och designintelligens under många århundraden, och den använder tusentals gånger mer energi än den mänskliga hjärnan. Hans seger i Jeopardy! var en veritabel triumf som möjliggjordes av de formella begränsningarna i Jeopardy! s regler, men även dessa regler måste revideras för att engagera sig. Jag var tvungen att ge upp lite mångsidighet och lägga till mänsklighet för att göra showen.

Watson är ett dåligt företag, trots vilseledande annonser från IBM som lovar AI-konversationsförmåga på båda nivåer, och att förvandla Watson till en trovärdig mångfacetterad agent skulle vara som att göra en kalkylator till Watson. Watson kan vara ett bra beräkningsfall för en sådan agent, utan snarare ett cerebellum eller amygdala snarare än ett sinne - i bästa fall ett delsystem för speciellt syfte som fungerar som ett stöd, men inte i stort sett ett system för att planera och formulera mål baserat på den samlade erfarenheten.

Varför skulle vi vilja skapa en tänkande och kreativ agent från Watson? Kanske Turings lysande idé - det berömda Turing-testet - lockade oss till en fälla: vi blev besatta av att skapa åtminstone illusionen av en riktig person som satt framför en skärm och kringgå den "olycksbådande dalen."

Faran är att sedan Turing presenterade sin uppgift - som främst var en uppgift att lura domarna - har skaparna av AI försökt åstadkomma det med roliga humanoid-dockor, "tecknad" versioner som kommer att fascinera och avväpna de oinitierade. ELIZA av Joseph Weisenbaum, den allra första chatbotten, var ett utmärkt exempel på att skapa en sådan illusion, men med en extremt enkel algoritm som kunde övertyga människor om att de hade uppriktiga och uppriktiga samtal med andra människor.

Han var orolig över hur lätt det är att folk är beredda att tro på detta. Och om vi räknade ut något från det årliga Lebner-priset med begränsade Turing-tester, är det att även de smartaste människorna som inte är välkända i datorprogrammering enkelt faller för dessa enkla trick.

Folk i AI: s inställning till sådana tekniker sträcker sig från bedömande till givande, och konsensus är att dessa trick inte är särskilt djupa, men kan vara användbara. En förändring i attityd som skulle vara mycket välkommen skulle vara ett uppriktigt erkännande att dockmålade androider är falska reklam som bör bedömas och inte uppmuntras.

Hur kan detta uppnås? När vi förstår att människor börjar fatta beslut om liv och död genom att följa "råd" från AI-system, vars interna operationer är nästan obegriplig, kommer vi att se en god anledning för dem som uppmanar människor att lita på sådana system, att börja lita på normerna för moral och lag.

Artificiella intelligenssystem är mycket kraftfulla verktyg. Så kraftfull att även experter har en god anledning att inte lita på sin egen bedömning när det finns”bedömningar” som representeras av dessa verktyg. Men om dessa användare av verktygen kommer att dra nytta av, ekonomiskt eller på annat sätt, av populariseringen av dessa verktyg, måste de se till att de vet hur de gör det med fullt ansvar, maximal kontroll och motivering.

Att licensiera och godkänna operatörerna av sådana system - precis som vi licensierar farmaceuter, kranoperatörer och andra yrkesverksamma vars misstag och felbedömningar kan få allvarliga konsekvenser - kanske, med stöd av försäkringsbolag och andra organisationer, ålägger skaparna av AI-system att gå långt letar efter svagheterna och bristerna i deras produkter och utbildar också de som ska jobba med dem.

Man kan föreställa sig ett slags omvänd Turing-test där domaren kommer att bli föremål för bedömningen; tills han hittar svaghet, brott mot gränser, luckor i systemet kommer han inte att få en licens. En sådan domare kommer att kräva seriös utbildning för att få en certifiering. Lången att tillskriva ett objekt en mänsklig förmåga att tänka, som vi brukar göra när vi möter en intelligent agent, är mycket, mycket stark.

Faktum är att förmågan att motstå lusten att se något humaniserat är en konstig sak. Många tycker att det är tveksamt att vårda en sådan talang, eftersom även de mest pragmatiska användare av systemet ibland är "vänliga" om sina verktyg.

Oavsett hur noggrant AI-designers väljer att eliminera falska "mänskliga" övertoner i sina produkter, bör vi förvänta oss att blomningen av etiketter, lösningar och tolerabla snedvridningar av den faktiska "förståelsen" för både system och deras operatörer. På samma sätt som läkemedel med en lång lista över biverkningar annonseras på TV, eller alkohol annonseras med ett överflöd av små bokstäver med alla varningar som krävs enligt lagen, så utvecklare av konstgjord intelligens kommer att följa lagen, men blir sofistikerade i varningar.

Varför behöver vi konstgjord intelligens?

Vi behöver inte konstgjorda medvetna agenter. Det finns en mängd naturmedvetna agenter som är tillräckliga för att utföra alla uppgifter för professionella och privilegierade individer. Vi behöver smarta verktyg. Verktyg har inga rättigheter och bör inte ha känslor som kan skadas eller missbrukas.

En anledning till att inte göra konstgjorda medvetna medel är att även om de kan bli autonoma (och i princip kan de vara lika autonoma, självförbättrande eller självskapande som någon person), bör de inte - utan särskilt tillstånd - dela med vår naturmedvetna agenter, vår sårbarhet eller vår dödlighet.

Daniel Dennett, professor i filosofi vid Tufts universitet, utmanade en gång studenterna i en workshop om konstgjorda agenter och autonomi: Ge mig specifikationerna för en robot som kan underteckna ett kontrakt med dig - inte en surrogat som ägs av en annan person, utan av sig själv. Det handlar inte om att förstå orsakerna eller manipulera pennan på papper utan snarare äganderätten och välförtjänt ägande av juridisk status och moraliskt ansvar. Små barn kan inte underteckna sådana kontrakt såväl som funktionshindrade, vars juridiska status förpliktar dem att vara under vårdnad och lägger ansvar för vårdnadshavare.

Problemet med robotar som kanske vill uppnå en sådan upphöjd status är att de, precis som Superman, är för sårbara för att göra sådana påståenden. Vad kommer att hända om de vägrar? Vad blir straffet för att bryta ett löfte? Kommer de att låsas in i en bur eller tas isär? Ett fängelse för konstgjord intelligens kommer inte att vara obekvämt om vi först laddar upp törsten efter frihet som inte kan ignoreras eller inaktiveras av AI själv. Demontering av AI kommer inte att döda informationen som finns lagrad på disken och i programvaran.

Enkelheten med att spela in och överföra data digitalt - ett genombrott som gjorde det möjligt för programvara och data att uppnå, i själva verket odödlighet - gör robotar okränkbara. Om detta inte verkar uppenbart, tänk på hur människors moral skulle förändras om vi skulle kunna säkerhetskopiera människor varje vecka. Att hoppa från en bro utan gummiband på söndag efter en fredagsbackup kan vara ett utslagigt beslut, då kan du titta på bilderna från din otydliga död senare.

Det är därför vi inte skapar medvetna - vi skulle vilja skapa - humanoidmedel, utan snarare en helt ny typ av varelser, några orakler, medvetslösa, utan rädsla för döden, utan distraktion av kärlek och hat, utan personlighet: speglar av sanningen som nästan säkert kommer att smittas av människan lögner.

Mänsklig användning av människor kommer snart att ändras - än en gång - för alltid, men om vi tar ansvar för vår evolutionära bana kan vi undvika onödiga faror.

Ilya Khel