Verklig Konstgjord Intelligens Kan Skapas Genom Att Lösa Tre Huvudproblem - - Alternativ Vy

Innehållsförteckning:

Verklig Konstgjord Intelligens Kan Skapas Genom Att Lösa Tre Huvudproblem - - Alternativ Vy
Verklig Konstgjord Intelligens Kan Skapas Genom Att Lösa Tre Huvudproblem - - Alternativ Vy

Video: Verklig Konstgjord Intelligens Kan Skapas Genom Att Lösa Tre Huvudproblem - - Alternativ Vy

Video: Verklig Konstgjord Intelligens Kan Skapas Genom Att Lösa Tre Huvudproblem - - Alternativ Vy
Video: Artificiell intelligens – ett hot mot mänskligheten | Anders Sandberg Idévärlden 2024, Maj
Anonim

Vid en konferens om djup maskinlärning i London förra månaden lyfts ett ämne upp flera gånger: vikten av att förstå vad vi verkligen gör. Medan företag som Google fortsätter att hävda att vi alla lever i "första århundradet av AI", när maskininlärning just börjar upptäcka nya verksamhetsområden (som tal- och bildigenkänning), är de som verkligen står i spetsen för AI-forskning, försöka betona att det finns många fler utmaningar att hantera innan AI: s sanna ålder anländer. Även om vi redan har digitala assistenter som kan tala som datorer i sci-fi-filmer, betyder det inte att vi är allvarligt nära att skapa verklig konstgjord intelligens.

I slutändan är alla problem som står i vägen för att skapa verklig AI följande: i mängden information som behöver investeras i dem; i vår oförmåga att skapa en AI som kan hantera lika bra med flera uppgifter samtidigt; ja, vi har faktiskt ingen aning om hur sådana system faktiskt ska fungera. Maskininlärningstekniker kan redan göra underbara saker 2016, men dessa saker kan ibland vara svåra att förklara, även för skaparna själva. För att inte tala om hur mycket pengar det kostar. Låt oss titta närmare på komplexiteten som AI-ingenjörer möter idag.

Information först, sedan AI

Vi förstår alla perfekt att AI måste ha tillgång till information för att studera världen runt oss, men vi förstår inte riktigt hur mycket information som behövs. Enligt Neil Lawrence, professor vid Department of Machine Learning vid Sheffield University och medlem av AI-teknikutvecklingsteamet på Amazon, kommer dessa system att behöva hundratusentals gånger mer information än människor för att lära sig förstå världen och känna igen vissa föremål.

"Om du tittar på alla branscher och områden där ingenjörer har uppnått en viss framgång i maskin djup inlärning, kan du omedelbart se hur mycket information som användes för att lösa alla dessa problem," säger Lawrence, med hänvisning till exempel samma tal- och bildigenkänningsteknologier.

Företag som Google och Facebook har tillgång till berg med information, vilket naturligtvis gör det lättare att skapa olika användbara verktyg (till exempel röstsökningstekniker för Android).

För Lawrence är information nu vad kol var under de första åren av den industriella revolutionen. Som exempel citerar Lawrence Thomas Newcomen, en engelskman som skapade 1712 (faktiskt 60 år innan skapandet av en sådan maskin av James Watt) en primitiv version av en ångmotor som drivs med kol. Newcomens uppfinning var inte perfekt. Jämfört med Watt's maskin visade den sig vara ineffektiv och för dyr att använda. Till största delen kunde den bara användas i kolgruvor, där den mängd bränsle som behövs kompenseras för maskinens brister.

Ett exempel på Facebooks öppna teknik för bildigenkänning

Kampanjvideo:

Image
Image

Lawrence tror att det kan finnas hundratals av dessa nykomlingar runt om i världen som utvecklar sina egna maskininlärningsmodeller. Kanske finns det verkligen revolutionerande idéer bland dem, men utan att deras teknik har åtkomst till enorma databaser med information om dem, är det troligt att ingen någonsin kommer att veta. Stora företag som Google, Facebook och Microsoft - de är de mycket moderna "kol gruvarbetarna". De har tillgång till en obegränsad mängd information så att de kan skapa ineffektiva maskininlärningssystem och sedan förbättra dem. Små nystartade företag kan verkligen ha bra idéer, men de kommer aldrig att uppnå något värdefullt utan tillgång till informationsbaser.

Det här problemet blir ännu tydligare när du tittar på områden där det blir ännu svårare att få den information du behöver. Ta till exempel hälso- och sjukvårdssystemet, där AI kan användas för att utföra uppgifter relaterade till maskinsyn - hitta och identifiera maligna tumörer på röntgenstrålar, till exempel. Men tillgången till sådan information är vanligtvis mycket begränsad. Den främsta begränsande faktorn här, enligt Lawrence, är den aktuella uppfattningen av människor att det är oetiskt för tredje parter att få tillgång till denna typ av information. Det huvudsakliga problemet, enligt Lawrence, ligger inte i att hitta sätt att sprida information utan i hur man effektiviserar maskininlärningssystem och undervisar i att arbeta med mindre information. Och dessa förbättringar av effektivitet, enligt forskaren, kan ta samma 60 år.som var fallet med Watts bil.

Specialisering är en återvändsgränd. AI måste kunna multitask

En annan viktig utmaning inför utvecklingen av verkligt djupa maskininlärningsmodeller är det faktum att alla våra nuvarande AI-system i själva verket är mycket dumma. Enligt Rya Hudsell, en forskare på Googles DeepMind, kan dessa system faktiskt läras att utföra kattigenkänningsuppgifter, att spela och samtidigt vara mycket effektiva i att utföra dessa uppgifter. Men "för tillfället i världen finns det inte ett enda fullständigt neuralt nätverk och metoder som skulle träna det att känna igen bilder, spela Space Invaders och fundera över musik." I sin tur är det neurala nätverk som är den viktigaste grunden för att skapa djupa inlärningssystem för maskiner.

Och detta problem är mycket mer betydelsefullt än det kan verka vid första anblicken. När DeepMind meddelade i februari förra året att det hade byggt ett system som kunde spela 49 Atari-spel, kunde det verkligen ses som en stor prestation. Men i slutändan visade det sig att när systemet har slutfört passet av ett spel, varje gång det måste omskolas för att spela ett annat. Hudsell konstaterar att vi inte kan lära systemet att spela alla spel på en gång, eftersom reglerna för var och en kommer att blandas med varandra och i slutändan störa uppgiften. Varje gång du måste lära dig maskinen igen, och varje gång "glömmer" hur man spelar det föregående spelet.

”För att skapa allmän konstgjord intelligens behöver vi något som hjälper oss att lära en maskin att utföra flera uppgifter samtidigt. Nu kan vi inte ens träna dem för att spela spel, säger Hadsell.

Lösningen kan döljas i de så kallade progressiva neurala nätverk - genom att kombinera oberoende djupa inlärningssystem till en enda helhet för mer effektivt arbete med information. I en publicerad vetenskaplig artikel som behandlade denna fråga, talade Hadsell och hennes forskargrupp om hur deras progressiva neurala nätverk kunde anpassa sig i spelet Pong, förhållandena där varje gång var något annorlunda (i ett fall ändrades färgerna; i det andra var de förvirrade kontroll), mycket snabbare än det "vanliga" neurala nätverket, som måste utbildas på nytt varje gång.

Grundprincipen för ett progressivt neuralt nätverk

Image
Image

Metoden har visat sig vara mycket lovande och har nyligen använts för att ställa in robotarmar, vilket påskyndar inlärningsprocessen från en vecka till bara en dag. Tyvärr har denna metod också sina begränsningar. Hudsell konstaterar att när det gäller progressiva neurala nätverk kan inte inlärningsprocessen minskas till att helt enkelt lägga till nya uppgifter i deras minne. Om du fortsätter att kombinera sådana system tillsammans, kommer du förr eller senare att "en för komplex modell som är omöjlig att spåra." I det här fallet kommer vi att prata om en annan nivå. Nivån på vilken olika uppgifter generellt utförs på samma sätt. Att bygga en AI som kan utforma stolar och skapa en AI på nivån av mänsklig intelligens som kan skriva dikter och lösa differentiella ekvationer är inte samma sak.

AI kan kallas AI om vi kan visa hur det fungerar

Ett annat skrämmande hinder är att förstå hur konstgjord intelligens kommer till dess slutsatser när man löser problem. Neurala nätverk är vanligtvis ogenomträngliga för observatören. Trots att vi vet hur de samlas in och hur information flyter genom dem förblir de beslut de fattar vanligtvis utan förklaring.

Ett utmärkt exempel på detta problem är Virginia Tech-experimentet. Forskarna har skapat ett spårningssystem för det neurala nätverket som registrerar vilka pixlar i en digital bild datorn börjar analysera från. Forskarna visade de neurala nätverksbilderna av sovrummet och ställde frågan: "Vad hänger på fönstren?" Maskinen, istället för att titta direkt på fönstren, började analysera bilderna från golvet. En säng kom in i hennes synfält och bilen svarade: "det finns gardiner på fönstren." Svaret visade sig vara korrekt, men bara för att systemet "lärdes" att arbeta med en begränsad mängd data. Baserat på den visade bilden drog det neurala nätverket slutsatsen att om fotot visar ett sovrum skulle det troligtvis vara gardiner på fönstren. Så när en detalj kom in i hennes synfält,som vanligtvis finns i alla sovrum (i detta fall en säng), analyserade hon inte bilden vidare. Hon kanske inte ens har sett den här sängen, hon såg gardinerna. Det är logiskt, men mycket ytligt och lockat. Dessutom har många sovrum inte gardiner!

Spårningsteknologi är bara ett verktyg som kan hjälpa oss att förstå vad som uppmanar en maskin att fatta ett särskilt beslut, men det finns bättre metoder som kan lägga till mer logik och djup analys till maskininlärningssystem. Murray Shanahan, professor i kognitiv robotik vid Imperial College London, tror att den bästa lösningen på problemet är att revidera det gammaldags paradigmet AI - symbolisk AI, eller GOFAI (Good Old-Fashioned Artificial Intelligence, "god gammal konstgjord intelligens"). Dess paradigm bygger på det faktum att absolut alla uppgifter kan delas upp i grundläggande logiska element, där varje ord bara är en komplex uppsättning enkla symboler. Genom att kombinera dessa symboler - i handlingar, händelser, objekt och så vidare - kan tänkande syntetiseras. Tänk bara på att en sådan utveckling genomfördes redan under de dagar då datorer var gigantiska lådor på ett rum, som arbetade på magnetband (arbetet började i mitten av 50-talet och fortsatte till slutet av 80-talet av förra seklet).

Shanahans förslag är att kombinera GOFAI-symboliska beskrivningar och djupa inlärningstekniker. Detta tillåter att inte bara mata sådana system ny information och vänta på att de ska dra vissa beteendemönster och problemlösningar baserat på denna information, Shanahans strategi är utformad för att ge sådana system startpunkter för att förstå världen. Detta, enligt hans åsikt, kommer inte bara att lösa problemet med AI-insyn, utan också problemet med överförbart lärande som Hadsell beskriver.

”Det kan sägas att Breakout liknar Pong, för i båda fallen används” plattformar”och” bollar”, men med tanke på människans uppfattning och logik är de två helt olika spel. Och det är praktiskt taget omöjligt att dra paralleller mellan dem. Det är som att försöka kombinera atomens struktur och strukturen i hela solsystemet."

Shanahan och hans kollegor vid Imperial College London arbetar för närvarande med en ny metod för maskininlärning (som de kallar djup symbolisk stimulerad inlärning) och har publicerat några små experiment. Metoden är fortfarande i sin barndom, och därför är det svårt att säga ännu om den kommer att skala till större system som arbetar med olika typer av data. Ändå finns det fortfarande chanser att denna metod kommer att växa till något mer. När allt kommer omkring, har djup inlärning alltid varit den tråkigaste och tråkigaste delen av AI-utvecklingen tills forskare hittade ett sätt att snabbt få tillgång till data och skaffat sig massiv processorkraft. Ganska möjligt,det är dags att gå tillbaka till gamla AI-paradigmer och prova dem i en ny miljö.

NIKOLAY KHIZHNYAK