Forskaren Sa Att 70 år Inom AI-forskning Har Praktiskt Taget Slösat Bort - Alternativ Vy

Innehållsförteckning:

Forskaren Sa Att 70 år Inom AI-forskning Har Praktiskt Taget Slösat Bort - Alternativ Vy
Forskaren Sa Att 70 år Inom AI-forskning Har Praktiskt Taget Slösat Bort - Alternativ Vy

Video: Forskaren Sa Att 70 år Inom AI-forskning Har Praktiskt Taget Slösat Bort - Alternativ Vy

Video: Forskaren Sa Att 70 år Inom AI-forskning Har Praktiskt Taget Slösat Bort - Alternativ Vy
Video: AI – Risker och etik 2024, Maj
Anonim

Den största lärdom som man kan lära sig från 70 års AI-forskning är att allmänna metoder som använder beräkning i slutändan är de mest effektiva - och med stor marginal. Det ultimata skälet till detta är Moore's Law. Eller snarare dess generalisering: den fortsatta, exponentiella minskningen av kostnaden för dataprocessorer. Denna "bittera lektion" delades av Richard Sutton, en kanadensisk datavetare. Vidare - från den första personen.

Image
Image

Varför har konstgjord intelligensforskning stannat i 70 år?

De flesta AI-studier har bedrivits som om de beräkningar som finns tillgängliga för agenten var ihållande (och i detta fall skulle användning av mänsklig kunskap vara ett av de enda sätten att förbättra prestanda). Men med tiden - mycket mer än ett typiskt forskningsprojekt behöver - blir det mycket nödvändigt mycket mer beräkning. På jakt efter förbättringar som kan hjälpa på kort sikt försöker forskare att maximera mänsklig kunskap på detta område, men det enda som är viktigt på lång sikt är den ökande användningen av datoranvändning. Dessa två aspekter bör inte motverka varandra, men i praktiken gör de det. Tiden som tillbringas på en av dem är inte lika med den tid som spenderas på den andra. Det finns psykologiska skyldigheter att investera i ett eller annat tillvägagångssätt. Och den mänskliga kunskapssättet tenderar att komplicera metoder på ett sådant sätt att de blir mindre lämpliga för att dra fördel av allmänna metoder som använder beräkning.

Det har funnits många exempel på AI-forskare som sent förstår denna bittera lektion. Det kommer att vara lärorikt att ta hänsyn till några av de mest framstående exemplen.

I datorschack var metoderna som besegrade världsmästaren Kasparov 1997 baserat på massiv, djup sökning. Vid den tiden sågs de bestörda av de flesta datorschackforskare som använde metoder baserade på mänsklig förståelse av schackens specifika struktur. När ett enklare, sökbaserat tillvägagångssätt med specialiserad hårdvara och programvara visade sig vara mycket effektivare, erkände inte forskare som bygger på den mänskliga förståelsen för schack. De sa:”Den här gången kan brute-force-strategin ha vunnit, men det kommer inte att bli en övergripande strategi och människor spelar verkligen inte schack på det sättet. Dessa forskare ville att människobaserade metoder skulle vinna och blev mycket besvikna när de inte gjorde det.

Kampanjvideo:

En liknande bild av forskningsutvecklingen sågs i datoranvändning, bara med en försening på ytterligare 20 år. Ursprungligen gjordes stora ansträngningar för att undvika sökning med hjälp av mänsklig kunskap eller spel, men alla dessa ansträngningar var onödiga eller ännu värre när sökningen tillämpades effektivt och i stor skala. Det var också viktigt att använda lärande i processen med oberoende spel för att lära sig värdefunktionen (som var fallet i många andra spel och även i schack, bara lärande spelade inte en stor roll i programmet 1997, som slog världsmästaren för första gången). Att lära sig att spela med sig själv, lära sig som en helhet är som en sökning som gör att du kan använda enorma beräkningar. Sökning och inlärning är två av de viktigaste klasserna av tekniker som involverar enorma beräkningar i AI-forskning. I datorn gårLiksom i dataskack var forskarnas inledande insatser inriktade på att använda mänsklig förståelse (så att det blev mindre sökning), och mycket mer framgång uppnåddes först mycket senare genom användning av sökning och inlärning.

Inom taligenkänning hölls en DARPA-sponsrad tävling på 1970-talet. Deltagarna presenterade olika metoder som utnyttjade mänsklig kunskap - kunskap om ord eller fonem, mänskliga vokalvägar och så vidare. På den andra sidan av barrikaderna fanns det nyare metoder, statistiska till sin natur och gjorde mer beräkning, baserat på Hidden Markov Models (HMM). Återigen vann statistiska metoder framför kunskapsbaserade metoder. Detta ledde till stora förändringar i all naturlig språkbearbetning som gradvis infördes under årtionden, tills statistiken och beräkningen så småningom började dominera fältet. Den senaste tidens ökning av djup inlärning inom taligenkänning är det allra senaste steget i denna konsekventa riktning. Djupt lärande förlitar sig ännu mindre på mänsklig kunskap och använder ännu mer beräkning, tillsammans med utbildning i enorma uppsättningar av prover, och producerar fantastiska taligenkänningssystem.

Richard Sutton, kanadensisk datavetare
Richard Sutton, kanadensisk datavetare

Richard Sutton, kanadensisk datavetare.

Liksom i spel har forskare alltid försökt skapa system som kommer att fungera som de föreställde sig i deras huvuden - de försökte lägga in denna kunskap i sina system - men allt kom ut extremt uproduktivt, forskare slösade bara tid medan - på grund av Moore's Law - mer och mer massiva beräkningar blev tillgängliga och fann utmärkta applikationer.

En liknande bild fanns inom datorsyn. De första metoderna uppfattades som en sökning efter vissa konturer, generaliserade cylindrar eller med hjälp av kapaciteten i SIFT (skala-invariant transformation av funktioner). Men idag kastades allt detta i ugnen. Moderna djupa lärande neurala nätverk använder bara begreppet upplösning och vissa invarianter och klarar sig mycket bättre.

Det här är en bra lektion.

Vart vi än tittar gör vi hela tiden samma misstag. För att se detta och hantera det effektivt måste du förstå varför dessa misstag är så attraktiva. Vi måste lära oss den bittera lektionen att bygga hur vi tänker utifrån hur vi tror inte kommer att fungera på lång sikt. En bitter lektion baserad på historisk observation visar att: 1) AI-forskare ofta har försökt bygga kunskap i sina agenter; 2) det hjälpte alltid på kort sikt och gav forskare tillfredsställelse; 3) men på lång sikt stoppade allt och hindrade ytterligare framsteg; 4) störande framsteg kom oundvikligen med det motsatta tillvägagångssättet, baserat på skalningsberäkning genom sökning och inlärning. Framgång hade en bitter smak och absorberades ofta inte helt.eftersom det är framgången för datoranvändning, inte framgången för mänskligt centrerade tillvägagångssätt.

En sak att lära sig av den här bittera lektionen är den enorma kraften i allmänna metoder, metoder som fortsätter att skala med beräkningstillväxten även när den tillgängliga beräkningen blir mycket stor. Två metoder som verkar skala godtyckligt på detta sätt är sökning och lärande.

Den andra saken som man kan lära sig av denna bittera lektion är att själens innehåll är extremt och onödigt komplicerat; vi bör sluta försöka hitta enkla sätt att förstå innehållet i sinnet, liknar enkla sätt att känna till rymden, föremål, flera agenter eller symmetrier. De är alla del av en godtyckligt komplex extern värld. Vi bör inte försöka bygga på dem, eftersom deras komplexitet är oändlig; vi bör bygga på metametoder som kan hitta och fånga denna godtyckliga komplexitet. Dessa metoder kan hitta bra tillnärmningar, men sökningen efter dem bör utföras med våra metoder, inte av oss. Vi behöver AI-agenter som kan upptäcka på samma sätt som vi kan och inte innehåller det vi har upptäckt. Att bygga vidare på våra upptäckter komplicerar bara upptäckten och sökningen.

Ilya Khel

Rekommenderas: