När Kommer Vi Att Ha Verklig Konstgjord Intelligens? - Alternativ Vy

Innehållsförteckning:

När Kommer Vi Att Ha Verklig Konstgjord Intelligens? - Alternativ Vy
När Kommer Vi Att Ha Verklig Konstgjord Intelligens? - Alternativ Vy

Video: När Kommer Vi Att Ha Verklig Konstgjord Intelligens? - Alternativ Vy

Video: När Kommer Vi Att Ha Verklig Konstgjord Intelligens? - Alternativ Vy
Video: Emma Engström - När använder vi artificiell intelligens (AI) och vad innebär det? 2024, April
Anonim

Fältet för konstgjord intelligensforskning har kommit långt, men många tror att det officiellt föddes när en grupp forskare från Dartmouth College samlades sommaren 1956. Datorer har förbättrats dramatiskt under de senaste åren; idag utför de beräkningar mycket snabbare än människor. Med tanke på alla dessa otroliga framsteg var forskarnas optimism förståelig. Den geniala datavetenskapsmannen Alan Turing föreslog utseendet på tänkande maskiner några år tidigare, och forskare kom med en enkel idé: intelligens är i själva verket bara en matematisk process. Den mänskliga hjärnan är en maskin i viss mån. Markera tänkande och maskinen kan imitera den.

Då verkade problemet inte särskilt svårt. Dartmouth-forskarna skrev: "Vi tror att betydande framsteg kan göras med ett eller flera av dessa problem om en noggrant utvald grupp forskare arbetar med det tillsammans under sommaren." Förslaget innehöll förresten en av de tidigaste användningarna av termen "artificiell intelligens". Det fanns många idéer: kanske att imitera kretsarna av neuroner i hjärnan kunde lära maskiner de abstrakta reglerna för människans språk.

Forskarna var optimistiska och deras ansträngningar belönades. De hade program som tycktes förstå mänskligt språk och kunde lösa algebraiska problem. Människor förutspådde säkert att maskininformation på mänsklig nivå kommer att dyka upp i tjugo år.

Det är ett lyckligt sammanfall att prognosfältet, när vi kommer att ha konstgjord intelligens på mänsklig nivå, föddes ungefär samtidigt som fältet för själva AI. I själva verket går allt tillbaka till Turings första artikel om "tänkande maskiner", där han förutspådde att Turing-testet - där en maskin måste övertyga en person om att det också är en människa - skulle passera 50 år senare, år 2000. I dag förutspår naturligtvis fortfarande människor att detta kommer att hända under de kommande 20 åren, bland de berömda "profeterna" - Ray Kurzweil. Det finns så många åsikter och förutsägelser att det ibland verkar som om AI-forskare lägger följande fras på telefonsvararen: "Jag har redan förutspått vad din fråga kommer att bli, men nej, jag kan inte förutsäga den exakt."

Problemet med att försöka förutsäga ett exakt datum för AI på mänsklig nivå är att vi inte vet hur långt vi kan gå. Det låter inte som Moores lag. Moore's Law - fördubblar datorkraften vartannat år - gör en specifik förutsägelse om ett specifikt fenomen. Vi förstår ungefär hur vi går vidare - för att förbättra kiselchiptekniken - och vi vet att vi i princip inte är begränsade i vår nuvarande strategi (förrän vi börjar arbeta med chips på atomskala). Detsamma kan inte sägas om konstgjord intelligens.

Vanliga misstag

Stuart Armstrongs forskning fokuserade på trender i dessa prognoser. Specifikt letade han efter två stora kognitiva fördomar. Den första var idén att AI-experter förutspår att AI kommer att komma (och göra dem odödliga) strax innan de dör. Det här är Kurzweils kritik av "nörd-rapturen" - hans förutsägelser motiveras av rädsla för döden, önskan om odödlighet och grundläggande irrationell. Skaparen av superintelligens blir nästan ett objekt för dyrkan. Kritiken görs vanligtvis av personer som arbetar inom AI-området som först vet om frustrationer och begränsningar i modern AI.

Kampanjvideo:

Den andra idén är att människor alltid väljer en tidsperiod på 15-20 år. Detta är tillräckligt för att övertyga människor om att de arbetar med något som kommer att vara revolutionerande inom en snar framtid (eftersom människor är mindre lockade av den ansträngning som kommer att manifestera sig genom tiderna), men inte så mycket i den närmaste framtiden att du omedelbart tycker att du är jävla fel. Människor är glada att förutsäga utseendet på AI innan de dör, men det är önskvärt att det inte är i morgon eller om ett år, men om 15-20 år.

Mätningens framsteg

Armstrong konstaterar att om du vill mäta giltigheten för en viss förutsägelse, det finns många parametrar att titta på. Tanken på att intelligens på mänsklig nivå kommer att utvecklas genom att simulera den mänskliga hjärnan ger dig åtminstone ett tydligt ramverk för att mäta framsteg. Varje gång vi får en allt mer detaljerad karta över hjärnan, eller imiterar vi framgångsrikt en viss del av den, vilket innebär att vi går mot ett specifikt mål, som antagligen kommer att resultera i AI på mänsklig nivå. Kanske kommer 20 år inte att räcka för att uppnå detta mål, men vi kan åtminstone mäta framsteg från en vetenskaplig synvinkel.

Jämför nu denna metod med tillvägagångssättet från dem som säger att AI, eller något medvetet, kommer att "dyka upp" om nätverket är tillräckligt komplex och har tillräcklig datorkraft. Kanske är det så vi föreställer oss mänsklig intelligens och medvetande som uppstod under utvecklingen, även om evolutionen har tagit miljarder år, inte tiotals år. Problemet är att vi inte har några empiriska bevis: vi har aldrig sett medvetande komma från en komplex webb. Vi vet inte bara om detta är möjligt, vi kan inte ens veta när detta väntar på oss, eftersom vi inte kan mäta framsteg på denna väg.

Det finns en enorm svårighet att ta reda på vilka uppgifter som verkligen är svåra att utföra, och detta har spökat oss från AI: s födelse fram till idag. Det är helt enkelt omöjligt att förstå mänskligt språk, chans och kreativitet, självförbättring - och allt på en gång. Vi har lärt oss att bearbeta naturligt tal, men förstår våra datorer vad de bearbetar? Vi har skapat en AI som känns "kreativ", men finns det någon kreativitet i dess handlingar? Den exponentiella självförbättringen som kommer att leda till singulariteten verkar i allmänhet vara något transcendentalt.

Vi själva förstår inte vad intelligens är. Exempelvis har AI-experter alltid underskattat AI: s förmåga att spela Go. 2015 trodde många att AI inte skulle lära sig att spela Go förrän 2027. Men bara två år har gått, inte tjugo. Betyder det att AI kommer att skriva den största romanen på några år? Förstå världen konceptuellt? Kommer du nära en person när det gäller intelligens? Okänd.

Inte mänskligt, men smartare än människor

Vi kanske har tittat på problemet felaktigt. Till exempel har Turing-testet ännu inte godkänts i den meningen att AI kunde övertyga en person i en konversation att han pratar med en person; men beräkningsförmågan hos AI, liksom förmågan att känna igen mönster och köra bil, är redan långt över nivån som finns tillgänglig för människor. Ju fler beslut fattas av algoritmer av "svag" AI, desto mer Internet of Things växer, desto mer data matas till neurala nätverk och desto större blir effekterna av denna "konstgjord intelligens".

Vi kanske ännu inte vet hur vi skapar intelligens av mänsklig kvalitet, men vi vet inte heller hur långt vi kan gå med den nuvarande generationen av algoritmer. Hittills är de inte ens nära de fruktansvärda algoritmer som undergräver den sociala ordningen och blir en slags vag superintelligens. Det betyder inte heller att vi borde hålla oss till optimistiska prognoser. Vi måste se till att värdet av människoliv, moral, moral alltid är inbäddat i algoritmerna så att algoritmerna inte är helt omänskliga.

Eventuella prognoser måste halveras. Glöm inte att det i början av AI såg ut som om det skulle lyckas mycket snabbt. Och idag tror vi det också. Sextio år har gått sedan forskare samlades i Dartmouth 1956 för att "skapa intelligens på tjugo år", och vi fortsätter fortfarande med deras arbete.

Ilya Khel

Rekommenderas: