Forskare: Det Finns Inga Grundläggande Begränsningar För Skapandet Av En Intelligent Maskin - Alternativ Vy

Innehållsförteckning:

Forskare: Det Finns Inga Grundläggande Begränsningar För Skapandet Av En Intelligent Maskin - Alternativ Vy
Forskare: Det Finns Inga Grundläggande Begränsningar För Skapandet Av En Intelligent Maskin - Alternativ Vy

Video: Forskare: Det Finns Inga Grundläggande Begränsningar För Skapandet Av En Intelligent Maskin - Alternativ Vy

Video: Forskare: Det Finns Inga Grundläggande Begränsningar För Skapandet Av En Intelligent Maskin - Alternativ Vy
Video: Kent - Halka / Det Finns Inga Ord (Live Cirkus Sthlm 26/5-2012, HD) 2024, Juni
Anonim

Mikhail Burtsev, chef för laboratoriet för neurala system och djupinlärning vid Moskvas institut för fysik och teknik, talar om huruvida det är möjligt att skapa en fullfjädrad datoranalog av det mänskliga sinnet och förklarar varför forskare utvecklar det och hur man skyddar det mot trollattacker.

I slutet av juli inledde forskare från MIPT en internationell tävling för "talade" system för artificiell intelligens som kunde imitera en levande person och bjöd in alla som ville kommunicera med dem och utvärdera de resulterande dialogerna. Med hjälp av volontärer hoppas forskare kunna skapa en röstassistent under de kommande tre åren som kan kommunicera med en person nästan lika bra som en levande samtalspartner.

Tävlingen samordnades av forskare från universiteten i Montreal, McGill och Carnegie Mellon. Du kan delta i testningen av dialogsystem genom att följa länken.

I själva verket uppfanns inte dessa idéer idag - moderna röstassistenter från Google, Apple, Amazon och andra IT-företag är rotade i det djupa förflutna, i början av datortiden. Den första talmaskinen, ELIZA, skapades 1966 och var i själva verket ett skämt, en parodi på en psykoterapeut som gav värdelös råd till en patient.

Under åren och decennierna som följde skapade programmerare mer och mer komplexa och "levande" system för att kommunicera med en dator. Det mest avancerade av dessa system kan känna igen ägarens stämning, komma ihåg hans gamla önskningar och preferenser och lösa några av rutin- och hushållsuppgifterna för honom, beställa mat eller varor i butiken eller spela rollen som operatör i callcenter.

Mikhail, nästan 50 år har gått sedan ELIZA skapades. Vad har förändrats i allmänhet under denna tid och kan i princip förvänta sig att forskare i framtiden kommer att kunna skapa ett sådant system som människor inte kan skilja från en levande samtalspartner?

- Jag tror att det inom en snar framtid kommer att vara möjligt att skapa en talteknik som gör det möjligt för maskinen att närma sig nivån på den mänskliga dialogen. Vi arbetar med denna uppgift inom iPavlov-projektet, som ingår i National Technology Initiative.

Användaren ska vara lika bekväm att kommunicera med ett automatiskt dialogsystem som med en levande person. Detta gör det möjligt att skapa informationssystem som bättre kan förstå vad en person vill ha av dem och svara på honom på ett naturligt språk.

Kampanjvideo:

Konversationsintelligens kan användas för att automatisera många röst- och textgränssnitt, inklusive budbärare som Telegram. Budbärare, som statistiken visar, används idag mer aktivt än sociala nätverk, och en mycket stor mängd information passerar genom textkommunikationskanaler.

De är till exempel praktiska att använda vid transport, och tillägget av en interaktiv assistent - en chattbot - gör det möjligt för användare att inte bara kommunicera med varandra utan också att få nödvändig information, göra inköp och göra många andra saker. Detta kommer att leda till att snabbmeddelanden och röstassistenter gradvis kommer att ersätta de vanliga webbsidorna och applikationerna, och också spela rollen som onlinekonsulter och callcenter-specialister.

Med tanke på närvaron av Apple, Google och Amazon på denna marknad, kan Ryssland tävla här? Finns det någon specificitet på ryska som kan hindra potentiella konkurrenter från ryska företag och forskare?

- Naturligtvis är det ryska språket mer komplext, och några av de metoder som används idag vid utvecklingen av dialogsystem och röstassistenter i världen kan inte tillämpas utan förfining och betydande modifiering som gör att de kan arbeta med rikare grammatik.

Å andra sidan döljer ingen de grundläggande algoritmerna som används i arbetet med Siri, Cortana, Google och andra digitala assistenter - de är tillgängliga för oss åtminstone på forskningsnivå och koncept. Forskningsartiklar och programkoder är ofta offentligt tillgängliga - i princip kan det anpassas till ryska.

Mikhail Burtsev, chef för laboratoriet för neurala system och djupinlärning, MIPT
Mikhail Burtsev, chef för laboratoriet för neurala system och djupinlärning, MIPT

Mikhail Burtsev, chef för laboratoriet för neurala system och djupinlärning, MIPT

Dessutom finns det inte många försök att genomföra detta på "industriell" nivå. Det enda stora projektet drivs av Yandex, som utvecklar en assistent för Alice-projektet.

I vårt projekt försöker vi skapa verktyg som skulle förenkla och påskynda skapandet av sådana "industriella" dialogsystem utformade för en mängd olika syften. Men att utveckla en universell röstassistent som kan lösa alla problem är en extremt svår uppgift även för stora företag.

Å andra sidan är det mycket lättare att automatisera ett litet företag som använder ett specialiserat dialogsystem. Vi hoppas att de verktyg som vi kommer att skapa kommer att hjälpa entreprenörer och programmerare att lösa sådana problem tillräckligt snabbt, utan att ha någon djup kunskap och utan att anstränga sig för detta.

Många forskare, som Roger Penrose eller Stuart Hameroff, tror att det mänskliga sinnet är av kvant karaktär och att det i princip är omöjligt att bygga en maskinanalog. Håller du med dem eller inte?

- Enligt min mening, om du tittar på vad vi vet idag om hjärnans struktur och människans medvetande, har vi hittills inga grundläggande hinder för att reproducera dess arbete med en dator.

Penrose och Hameroff har en uppsättning hypoteser som de tror förklarar varför detta inte kan göras. Hittills har neurofysiologer inte hittat några experimentella bevis för att dessa hypoteser är korrekta, och vår nuvarande kunskapsbas talar för det motsatta.

En annan sak är att tidsramen för när en sådan maskin skapas förblir inte helt definierad. Det verkar för mig att detta kan hända om minst 50 eller till och med 100 år.

Kommer detta att kräva grundläggande ny teknik och datorer som ligger närmare neuroner i sina funktionsprinciper än digital logik?

- Om vi tror att mänsklig intelligens baseras på någon form av beräkning, kan alla universella datorsystem som motsvarar en Turing-maskin, i teorin, efterlikna den mänskliga hjärnans arbete.

En annan sak är att den här maskinen kan gå mycket långsamt, vilket gör den oanvändbar ur praktisk synvinkel. Idag är det svårt att gissa vilken teknik för att bygga datorer vi behöver här.

Vilka andra uppgifter kan digitala assistenter lösa, förutom de saker de gör idag? Kan de användas för att dechiffrera texter på döda språk eller krypteringar som Voynich-manuskriptet?

- För närvarande, så vitt jag vet, har ingen försökt att använda neurala nätverk för att avslöja döda språkens hemligheter och dechiffrera texter, men det verkar för mig att någon kommer att försöka göra det inom en snar framtid. Vi har i sin tur ännu inte varit intresserade av sådana saker.

"Helper" är faktiskt ett mycket brett koncept som kan innehålla många mycket olika saker. Om vi till exempel tar samma ELIZA, en virtuell”psykoterapeut”, uppstår frågan: är hon en assistent eller inte?

Dialogsystem kan inte bara användas för att lösa praktiska problem utan också för att underhålla människor eller behålla humör. Frågan här är faktiskt vad vi menar med begreppet personlig assistent och hur bred eller smal det är. I vid bemärkelse kan sådana system lösa alla frågor som rör kommunikation, om än med varierande framgång.

Konversationsgränssnitt, förutom direkt kommunikation med människor, kan också användas för att lära maskiner att snabbt hitta ett gemensamt språk och överföra information från ett system till ett annat.

Detta kommer att kringgå problemet med att skapa länkar och överföra data mellan befintliga och skapade tjänster, eftersom de inte behöver veta varandras API-specifikationer för att kommunicera med varandra. De kommer att kunna utbyta data med hjälp av naturliga språk eller sitt eget konstgjorda språk som kommer att uppfinnas av maskiner eller människor för sådana ändamål.

Grovt sett kommer även system som inte är kända för varandra att komma överens om att använda ett gemensamt kommunikationsspråk för dem och inte fasta regler för informationsutbyte. Om de inte förstår något kan de fråga varandra om okända saker, vilket gör hela infrastrukturen för att tillhandahålla tjänster och tjänster otroligt flexibel och gör det möjligt att snabbt integrera nya tjänster utan hjälp från människor.

I detta avseende uppstår frågan - vem ska vara ansvarig för rekommendationerna från "psykoterapeuten" ELIZA, datorläkare och andra röstassistenter, vars råd i hög grad kan påverka människors välbefinnande och hälsa?

- Det här är en mycket svår fråga, eftersom det idag inte finns några tydliga kriterier som kan hjälpa oss att förstå hur vi ska agera i sådana fall. Många internettjänster och -tjänster som ger rekommendationer till användare börjar arbeta först efter att användaren godkänner användarvillkoren och de konsekvenser som kan uppstå till följd av att arbeta med det.

Det verkar för mig att chattbots och röstassistenters arbete - åtminstone i de tidiga stadierna av deras existens - kan regleras på ett liknande sätt. Till exempel, om en bot helt enkelt söker och analyserar information och agerar på ungefär samma sätt som en sökmotor, kan samma regler tillämpas på den. Om han kommer att ge medicinsk eller juridisk rådgivning bör ansvarsformen vara annorlunda.

Till exempel bör sådana system tydligt meddela användaren om konsekvenserna av valet mellan artificiell intelligens och en vanlig läkare. En person kommer att välja - att lita på läkaren, som till exempel kommer att ha fel i 10% av fallen, eller att satsa på en maskin som ger fel svar i 3% av fallen. I det första fallet kommer läkaren att vara ansvarig för felet och i det andra, användaren själv.

Förra året lanserade Microsoft Tay. AI chatbot, som det var tvungen att stänga av bokstavligen en dag senare på grund av att nätanvändare gjorde en "tonårsflicka" till en riktig rasist. Är det möjligt att skydda sådana dialogsystem från troll och pranksters?

- Det verkar som om du kan skydda dig själv, men om det är värt att göra det beror på syftet med systemet. Det är uppenbart att om systemet inte skulle ge några specifika kommentarer - oförskämd eller extremistisk, kan vi filtrera dess svar. Denna filtrering kan inträffa antingen vid utbildningen av systemet eller redan under genereringen av svar.

Förresten, en liknande uppgift att bedöma kvaliteten på dialogen löstes av team inom ramen för den vetenskapliga skolhackathon DeepHack Turing, som ägde rum vid MIPT för några veckor sedan. Deltagarna utvecklade algoritmer som kunde förutsäga från ledtrådarna i dialogen, vilken typ av bedömning en person skulle ge till dialogsystemet.

Nästa steg i utvecklingen av detta tillvägagångssätt är skapandet av ett program som skulle utvärdera acceptansen av fraser eller tillförlitligheten hos källor som används för att generera svar på användarfrågor. Det verkar för mig att det skulle hjälpa till att lösa detta problem.

Rekommenderas: