Forskare Har Föreslagit Ett Sätt Att Förhindra Världens Slut På Grund Av Robotar I Framtiden - Alternativ Vy

Forskare Har Föreslagit Ett Sätt Att Förhindra Världens Slut På Grund Av Robotar I Framtiden - Alternativ Vy
Forskare Har Föreslagit Ett Sätt Att Förhindra Världens Slut På Grund Av Robotar I Framtiden - Alternativ Vy

Video: Forskare Har Föreslagit Ett Sätt Att Förhindra Världens Slut På Grund Av Robotar I Framtiden - Alternativ Vy

Video: Forskare Har Föreslagit Ett Sätt Att Förhindra Världens Slut På Grund Av Robotar I Framtiden - Alternativ Vy
Video: The Choice is Ours (2016) Official Full Version 2024, April
Anonim

Många är rädda för en robotuppror i framtiden och kräver att utvecklingen av konstgjord intelligens stoppas för att undvika ett negativt scenario i framtiden. Men i branschen som är förknippad med utvecklingen av robotik är ett stort antal människor och pengar involverade, så ingen kommer att stoppa utvecklingen av sådan teknik. Kan vi möta en apokalypse på grund av våra skapelser, och finns det ett sätt att förhindra uppror av maskinerna?

För en tid sedan publicerade Science Alert en artikel av experter från vetenskapens värld som talade om utvecklingen av en speciell algoritm som kommer att hjälpa till att förhindra okontrollerat beteende hos robotar med artificiell intelligens i framtiden. Enligt forskare kan robotar helt enkelt inte skada människor på grund av denna metod.

Forskarna kallade själva sin algoritm Seldonian. Men vad innebär det? Algoritmer kommer att kunna analysera oacceptabelt beteende för maskiner och maximalt skydda människor från de negativa handlingarna från robotar, men algoritmerna innehåller inte begreppet gott och dåligt beteende, så inte alla experter tror på algoritmernas skyddande funktioner.

Utvecklarna av det nya systemet berättade om hur algoritmen fungerade med ett av exemplen, som är att styra en insulinpump med hjälp av ett automatiserat system. Om mängden insulin i patientens blod reduceras till en extremt låg nivå, föreslår algoritmerna de åtgärder som krävs för att rädda personen.

För en tid sedan uttryckte ett antal forskare oro över utvecklingen av kärnvapen baserad på konstgjord intelligens. Om sådana system kommer att fatta sina egna beslut, kan detta orsaka en apokalyps på jorden. Glöm inte hackarnas handlingar som kan hacka sådana system och inga skyddande algoritmer hjälper i detta fall. Således kan det anses att det inte finns något idealiskt skydd mot hot från den moderna världen inom området för utveckling av robotar och konstgjord intelligens.

Rekommenderas: