Vad Händer Med Konstgjord Intelligens? Analys Av 16 625 Verk Under De Senaste 25 åren - Alternativ Vy

Innehållsförteckning:

Vad Händer Med Konstgjord Intelligens? Analys Av 16 625 Verk Under De Senaste 25 åren - Alternativ Vy
Vad Händer Med Konstgjord Intelligens? Analys Av 16 625 Verk Under De Senaste 25 åren - Alternativ Vy

Video: Vad Händer Med Konstgjord Intelligens? Analys Av 16 625 Verk Under De Senaste 25 åren - Alternativ Vy

Video: Vad Händer Med Konstgjord Intelligens? Analys Av 16 625 Verk Under De Senaste 25 åren - Alternativ Vy
Video: Effektiv Återvinning 2024, September
Anonim

Ganska mycket allt du hör om konstgjord intelligens idag kommer från djup inlärning. Denna kategori algoritmer arbetar med statistik för att hitta mönster i data och har visat sig vara extremt kraftfull när det gäller att efterlikna mänskliga färdigheter, till exempel vår förmåga att se och höra. I en mycket snäv grad kan det till och med imitera vår förmåga att resonera. Dessa algoritmer stöder Google Search, Facebook Newsfeed, Netflix rekommendationsmotor och formar industrier som hälso- och sjukvård och utbildning.

Hur djup inlärning utvecklas

Trots det faktum att djup inlärning praktiskt taget ensam gav konstgjord intelligens till allmänheten, representerar det bara en liten blixt i mänsklighetens historiska uppgift att reproducera sin egen intelligens. Det har varit i spetsen för denna sökning i mindre än ett decennium. Om vi lägger åt detta hela historia, är det lätt att förstå att det snart också kan försvinna.

De plötsliga upp- och nedgångarna av olika metoder har länge kännetecknat AI-forskning, sade han. Det har varit intensiv konkurrens mellan olika idéer varje decennium. Då, då och då, växlar omkopplaren och hela samhället börjar göra en sak.

Våra kollegor på MIT Technology Review ville visualisera dessa problem och startar. För detta ändamål vände de sig till en av de största databaserna med öppna vetenskapliga artiklar kända som arXiv. De laddade ner utdrag från totalt 16 625 artiklar som finns tillgängliga i artificiell intelligensavsnitt till och med 18 november 2018 och spårade upp orden som nämnts under åren för att se hur fältet har utvecklats.

Genom deras analys framkom tre huvudtrender: övergången mot maskininlärning i slutet av 90-talet och början av 2000-talet, ökningen i popularitet för neurala nätverk som började i början av 2010-talet och ökningen av förstärkningslärande de senaste åren.

Kampanjvideo:

Men först några varningar. Först, arXiv-avsnittet med AI går tillbaka till 1993, och termen "artificiell intelligens" går tillbaka till 1950-talet, så databasen i sig representerar endast de sista kapitlen i fältets historia. För det andra representerar de dokument som läggs till databasen varje år bara en bråkdel av det arbete som görs på detta område just nu. ArXiv erbjuder emellertid en utmärkt resurs för att identifiera några av de viktigaste forskningstrenderna och för att se dragkampen mellan olika ideologiska läger.

Maskininlärningsparadigmet

Den största förändringen forskarna fann var flytten från kunskapsbaserade system mot tidigt 2000-tal. Sådana datorsystem är baserade på idén att det är möjligt att koda all mänsklig kunskap i ett regelsystem. Istället vände forskare sig till maskininlärning, den överordnade kategorin av algoritmer som inkluderar djup inlärning.

Bland de 100 nämnda orden minskade de mest med kunskapsbaserade system - "logik", "begränsningar" och "regel". Och de relaterade till maskininlärning - "data", "nätverk", "prestanda" - växte mest.

Orsaken till denna väderförändring är mycket enkel. På 80-talet fick kunskapsbaserade system popularitet bland fans, tack vare spänningen kring ambitiösa projekt som försökte återskapa sunt förnuft i maskiner. Men när dessa projekt utvecklades stod forskarna inför en stor utmaning: För många regler måste kodas för att systemet skulle kunna göra något användbart. Detta ledde till ökade kostnader och dämpade pågående processer betydligt.

Svaret på detta problem är maskininlärning. Istället för att kräva att man manuellt kodar hundratusentals regler, programmerar denna strategi maskiner för att automatiskt extrahera dessa regler från en hög med data. På samma sätt har detta område flyttat sig från kunskapsbaserade system och vänt sig på att förbättra maskininlärningen.

Boomen i neurala nätverk

Inom det nya paradigmet för maskininlärning skedde inte övergången till djup inlärning över en natt. Istället har en analys av nyckelord visat att forskare har testat många metoder utöver neurala nätverk, de viktigaste mekanismerna för djup inlärning. Andra populära metoder inkluderade Bayesian-nätverk, supportvektomaskiner och evolutionära algoritmer, som alla använder olika metoder för att hitta mönster i data.

Under 1990- och 2000-talet var det en stark konkurrens mellan dessa metoder. Sedan 2012 ledde ett dramatiskt genombrott till en annan väderförändring. Under den årliga ImageNet-tävlingen för att påskynda framstegen i datorsyn uppnådde en forskare vid namn Jeffrey Hinton tillsammans med kollegor från University of Toronto den bästa bildigenkänningsnoggrannheten med ett fel på drygt 10%.

Den djupa inlärningstekniken som han använde har skapat en ny våg av forskning, först inom visualiseringsgemenskapen och därefter. När fler och fler forskare började använda den för att uppnå imponerande resultat har populariteten för denna teknik, tillsammans med populariteten för neurala nätverk, skyrocketed.

Tillväxten av förstärkningslärande

Analysen visade att några år efter dypt lärningars glansdag har det skett en tredje och sista förskjutning i AI-forskning.

Förutom de olika maskininlärningsmetoderna finns det tre olika typer: övervakat inlärning, oövervakat lärande och förstärkningslärande. Övervakad inlärning, som involverar matning av taggade data till maskinen, är den mest använda och har också de mest praktiska applikationerna idag. Under de senaste åren har förstärkningsinlärning, som efterliknar djurens inlärningsprocess genom morötter och pinnar, straff och belöningar, emellertid lett till en snabb ökning av referenser i verken.

Idén i sig är inte ny, men den har inte fungerat på många decennier. "Övervakade lärande specialister skrattade av förstärkningsinlärningspecialisterna", säger Domingos. Men som med djup inlärning, tog en vändpunkt plötsligt metoden fram.

Det ögonblicket kom i oktober 2015, då DeepMinds AlphaGo, tränad med förstärkning, besegrade världsmästaren i det gamla spelet. Påverkan på forskarsamhället var omedelbar.

De kommande tio åren

MIT Technology Review ger bara den senaste bilden av tävlingen bland idéer som kännetecknar AI-forskning. Men det illustrerar inkonsekvensen i önskan att duplicera intelligens. "Det är viktigt att förstå att ingen vet hur man löser problemet", säger Domingos.

Många av de metoder som har använts i 25 år framträdde ungefär samtidigt på 1950-talet och har inte lyckats matcha utmaningarna och framgångarna för varje decennium. Neurala nätverk toppade till exempel på 60-talet och något på 80-talet, men dog nästan innan de återfick sin popularitet tack vare djup inlärning.

Varje decennium har med andra ord sett dominansen av en annan teknik: neurala nätverk i slutet av 50- och 60-talet, olika symboliska försök på 70-talet, kunskapsbaserade system på 80-talet, Bayesiska nätverk på 90-talet, referensvektorer i noll och neurala nätverk igen under 2010-talet.

2020-talet kommer inte att bli annorlunda, säger Domingos. Detta innebär att eran med djup inlärning snart kan vara över. Men vad som kommer att hända härnäst - en gammal teknik i en ny härlighet eller ett helt nytt paradigm - detta är föremål för hård kontrovers i samhället.

Ilya Khel