Ny Teknik Från IBM Har Gjort Det Möjligt Att Påskynda AI-utbildning Med Fyra Gånger - - Alternativ Vy

Ny Teknik Från IBM Har Gjort Det Möjligt Att Påskynda AI-utbildning Med Fyra Gånger - - Alternativ Vy
Ny Teknik Från IBM Har Gjort Det Möjligt Att Påskynda AI-utbildning Med Fyra Gånger - - Alternativ Vy

Video: Ny Teknik Från IBM Har Gjort Det Möjligt Att Påskynda AI-utbildning Med Fyra Gånger - - Alternativ Vy

Video: Ny Teknik Från IBM Har Gjort Det Möjligt Att Påskynda AI-utbildning Med Fyra Gånger - - Alternativ Vy
Video: Teknik som inkluderar: AI for dummies 2024, Maj
Anonim

Beräkningseffektiviteten för konstgjord intelligens är som ett dubbelkantigt svärd. Å ena sidan måste det lära sig ganska snabbt, men ju mer nervnätverket "accelererar", desto mer konsumerar det energi. Detta innebär att det helt enkelt kan bli olönsamt. En väg ut ur situationen kan emellertid ges av IBM, som har visat nya metoder för att undervisa AI, vilket gör att den kan lära sig flera gånger snabbare med samma nivå på resurs- och energikostnader.

För att uppnå dessa resultat var IBM tvungna att överge beräkningsmetoder med hjälp av 32-bitars och 16-bitars tekniker, utveckla en 8-bitars teknik samt ett nytt chip för att arbeta med det.

All IBM-utveckling presenterades på NeurIPS 2018 i Montreal. Företagets ingenjörer talade om två utvecklingar. Den första kallas "djup maskininlärning av neurala nätverk med 8-bitars flytande punktnummer." I den beskriver de hur de lyckades minska aritmetisk precision för applikationer från 32-bitars till 16-bitars på ett sådant sätt och spara den på en 8-bitarsmodell. Experter hävdar att deras teknik påskyndar träningstiden för djupa nervnätverk med 2-4 gånger jämfört med 16-bitarssystem. Den andra utvecklingen är "8-bitars multiplikation i minne med projicerat fasövergångsminne." Här avslöjar experter en metod som kompenserar för den låga noggrannheten hos analoga AI-chips, vilket gör att de kan konsumera 33 gånger mindre effekt än jämförbara digitala AI-system.

Vladimir Kuznetsov