De Fem Allvarligaste Hoten Mot Mänsklighetens Existens - Alternativ Vy

Innehållsförteckning:

De Fem Allvarligaste Hoten Mot Mänsklighetens Existens - Alternativ Vy
De Fem Allvarligaste Hoten Mot Mänsklighetens Existens - Alternativ Vy

Video: De Fem Allvarligaste Hoten Mot Mänsklighetens Existens - Alternativ Vy

Video: De Fem Allvarligaste Hoten Mot Mänsklighetens Existens - Alternativ Vy
Video: ТАЙМЛАПС БУДУЩЕГО: Путешествие к концу времени (4K) 2024, Maj
Anonim

Bortförd av hype om de nuvarande "kriser" som mänskligheten står inför, glömmer vi bort det stora antalet generationer som vi hoppas kommer att ersätta oss. Vi talar inte om de människor som kommer att leva 200 år efter oss, utan om dem som kommer att leva tusen eller 10 tusen år efter oss.

Jag använder ordet”hopp” eftersom vi står inför risker som kallas existentiella och som kan förstöra mänskligheten. Dessa risker är inte bara förknippade med stora katastrofer utan med katastrofer som kan avsluta historien.

Men inte alla ignorerar den avlägsna framtiden. Mystiker som Nostradamus försöker regelbundet bestämma ett datum för världens ände. H. G. Wells försökte utveckla en vetenskap om förutsägelse och är känd för att ha beskrivit mänsklighetens framtid i The Time Machine. Andra författare har kommit med andra versioner av den avlägsna framtiden för att varna, underhålla eller drömma om.

Men även om alla dessa pionjärer och futurister inte tänkte på mänsklighetens framtid, skulle resultatet fortfarande vara detsamma. Det fanns inte mycket man kunde ha gjort tidigare för att rädda oss från en existentiell kris eller till och med orsaka den.

Idag är vi i en mer privilegierad position. Mänsklig aktivitet formar gradvis vår planets framtid. Även om vi fortfarande är långt ifrån att kontrollera katastrofer, utvecklar vi redan teknologier som kan mildra deras konsekvenser, eller åtminstone göra något för den delen.

Framtiden är ofullkomlig

Dessa risker är dock fortfarande inte väl förstådda. Det finns maktlöshet och fatalism angående de listade problemen. Människor har pratat om apokalypser i årtusenden, men få har försökt förhindra dem. Människor är dessutom inte så starka när det gäller problem som ännu inte har dykt upp (särskilt på grund av inverkan av tillgänglighetsheuristik) - tendensen att överskatta sannolikheten för dessa händelser, exempel på vilka vi känner till och underskatta de händelser som vi kommer inte ihåg med en gång).

Kampanjvideo:

Om mänskligheten upphör att existera kommer denna typ av förlust åtminstone att motsvara förlusten av alla levande individer, liksom kollapsen av alla deras mål. Men i verkligheten kommer förlusten sannolikt att bli mycket större. Försvinnandet av en person betyder förlusten av den mening som skapats av tidigare generationer, förlusten av livet för alla framtida generationer (och antalet framtida liv kan vara astronomiskt), liksom alla de värden som de förmodligen skulle kunna skapa.

Om medvetenhet och förnuft inte längre finns där, kan detta innebära att värdet i sig upphör att existera i universum. Detta är en mycket stark moralisk anledning att arbeta outtröttligt för att förhindra existentiella hot. Och på denna väg får vi inte göra ett enda misstag.

Image
Image

Med det sagt har jag valt de fem allvarligaste hoten mot den mänskliga existensen. Några ytterligare omständigheter bör dock beaktas, eftersom listan ännu inte är slutgiltig.

Under de senaste århundradena har vi upptäckt eller skapat nya existentiella risker för oss själva: i början av 1970-talet upptäcktes supervulkaner, och före Manhattan-projektet var kärnvapenkrig omöjligt. Därför bör vi förvänta oss att andra hot dyker upp. Dessutom kan några av de risker som verkar allvarliga idag försvinna när kunskapen ackumuleras. Sannolikheten för vissa händelser förändras också över tiden. Ibland händer detta för att vi är oroade över befintliga risker och tar upp orsakerna till dem.

Slutligen betyder det faktum att något är möjligt och potentiellt riskabelt inte att det är värt att oroa sig för. Det finns risker som vi inte alls kan göra någonting med - till exempel flödet av gammastrålar som uppstår till följd av explosionen av galaxer. Men om vi får reda på att vi kan göra något ändras prioriteringarna. Till exempel, med förbättringen av sanitära förhållanden, tillkomsten av vacciner och antibiotika, började pesten uppfattas inte som en manifestation av gudomlig bestraffning, utan som ett resultat av den dåliga hälsovården.

1. Kärnkrig

Medan endast två atombomber har använts hittills - i Hiroshima och Nagasaki under andra världskriget - och lagren har minskat från sina toppar under det kalla kriget, skulle det vara ett misstag att tro att kärnkrig är omöjligt. I själva verket verkar hon inte vara otrolig.

Image
Image

Den kubanska missilkrisen var mycket nära att bli kärnkraft. Om vi går ut från antagandet att en sådan kris inträffar vart 69: e år och det finns en chans av tredje att det kan leda till utbrott av ett kärnvapenkrig, ökar möjligheten till en sådan katastrof och motsvarande koefficient blir 1 av 200 per år.

Ännu värre är att den kubanska missilkrisen bara är det mest kända fallet. Historien om sovjetamerikansk kärnvapenavskräckning är full av krissituationer och farliga misstag. Den faktiska sannolikheten är inte längre beroende av internationell spänning, men sannolikheten för en kärnkraftskonflikt är sannolikt inte lägre än en koefficient på 1 av 1000 per år.

Ett fullskaligt kärnvapenkrig mellan stormakterna skulle leda till att hundratals miljoner människor dödade direkt vid utbytet av strejker eller som ett resultat av deras konsekvenser - det skulle vara en otänkbar katastrof. Men för existentiell risk är det fortfarande inte tillräckligt.

Samma bör sägas om riskerna med konsekvenserna av kärnkraftsexplosioner - de är ofta överdrivna. Lokalt är de dödliga, men globalt sett är de ett relativt begränsat problem. Koboltbomber har föreslagits som ett hypotetiskt dommedagsvapen som kan förstöra allt som ett resultat av konsekvenserna i samband med deras användning, men i praktiken är de mycket svåra att tillverka och dyra. Och deras skapande är faktiskt omöjligt.

Det verkliga hotet är kärnvinter - det vill säga partiklar av sot som kan stiga upp i stratosfären och därmed orsaka en långsiktig minskning av temperaturen och uttorkningen av planeten. Nuvarande klimatsimuleringar visar att detta skulle göra det omöjligt att odla mycket av planeten under många år.

Om detta scenario går i uppfyllelse kommer miljarder människor att dö av hunger och ett litet antal överlevande kommer att utsättas för andra hot, inklusive sjukdom. Den största osäkerheten är hur sotpartiklarna som kommer upp till himlen kommer att bete sig: beroende på deras sammansättning kan resultatet bli annorlunda, och hittills har vi inte ett tillförlitligt sätt att mäta denna typ av konsekvenser.

2. Pandemier orsakade av bioteknik

Naturliga pandemier har orsakat fler dödsfall än krig. Det är dock osannolikt att naturliga pandemier utgör ett existentiellt hot. Vanligtvis finns det människor som är immuna mot patogener, och de överlevandes ättlingar blir ännu mer skyddade.

Image
Image

Evolution stöder inte särskilt de parasiter som förstör värdorganismer, varför syfilis, som den sprids i Europa, har vänt sig från en ond mördare och en kronisk sjukdom.

Tyvärr kan vi nu göra sjukdomar mer destruktiva. Ett av de mest kända exemplen är hur införandet av en extra gen i muspox - musvarianten av koppor - gjorde den mycket mer livshotande och kapabel att infektera redan vaccinerade individer. Det senaste arbetet med fågelinfluensa har visat att smittsamheten hos sjukdomen medvetet kan ökas.

För närvarande är risken att någon medvetet sprider någon form av skadlig infektion försumbar. Men eftersom biotekniken förbättras och blir billigare kommer fler och fler grupper att kunna göra sjukdomen ännu farligare.

Det mesta av arbetet inom området biologiska vapen utförs av stater som vill få något kontrollerat, eftersom förstörelsen av mänskligheten inte är militärt användbar. Men det kommer alltid att finnas människor som kommer in för att göra vissa saker helt enkelt för att de kan göra det. Andra kan ha mer höga mål.

Till exempel försökte medlemmar av den religiösa gruppen Aum Shinrikyo påskynda apokalypsens början genom användning av biologiska vapen, inte bara genom deras mer framgångsrika attack med nervgas. Vissa människor tror att situationen på jorden kommer att förbättras om det inte finns fler människor på den och så vidare.

Antalet dödsfall till följd av användningen av biologiska vapen och epidemiska sjukdomar får en att tro att de utvecklas enligt en maktlag - i ett stort antal fall är det få offer, men i ett litet antal fall finns det många offer. Med tanke på de för närvarande tillgängliga uppgifterna verkar risken för en global pandemi från bioterrorism vara liten.

Men detta gäller bara bioterrorism: regeringar med hjälp av biologiska vapen dödade betydligt fler människor än bioterrorister (cirka 400 tusen människor blev offer för det japanska biologiska krigsprogrammet under andra världskriget). Teknik blir kraftfullare, vilket gör det lättare att skapa ännu fler patogener i framtiden.

3. Superintelligens

Intelligens är kraftfull. Den marginella ökningen av problemlösning och gruppkoordinering är anledningen till att resten av aporna är utan arbete. För närvarande beror deras existens på personens beslut och inte på vad de gör.

Image
Image

Att vara smart är verklig excellens för människor och organisationer, och därför ägnas mycket arbete åt att förbättra vår individuella och kollektiva intelligens, från droger för att förbättra kognitiva förmågor till att utveckla program relaterade till artificiell intelligens.

Problemet är att intelligenta system fungerar bra för att uppnå sina mål, men om dessa mål är dåligt definierade, har de förmågan att använda sin kraft för att uppnå sina katastrofala mål på ett smart sätt. Det finns ingen anledning att tro att intellektet själv kan få något eller någon att agera korrekt och moraliskt. Det finns faktiskt möjligheten att vissa typer av superintelligenta system kommer att trotsa moraliska regler även om de var möjliga.

Ännu mer oroande är det faktum att när vi försöker förklara saker för artificiell intelligens står vi inför djupa praktiska och filosofiska problem. Mänskliga värden är vaga, komplexa frågor som vi ännu inte kan definiera bra, och även om vi kunde, kanske vi inte förstår de fulla konsekvenserna av vad vi försöker skapa.

Mjukvarubaserad intelligens kan snabbt minska klyftan med människor och maskinfunktioner kan bli farliga. Problemet är att artificiell intelligens kan relatera till biologisk intelligens på olika sätt: den kan springa snabbare på snabbare datorer, delar av den kan placeras på fler datorer, vissa versioner av den kan testas och uppdateras i farten, och det finns en möjlighet att införa nya algoritmer som dramatiskt kan öka prestandan.

Idag antar många att ett "genombrott i intelligens" är troligt om programmen själva har tillräcklig kapacitet för att producera bättre program. Om denna typ av språng inträffar kommer det att finnas en stor skillnad mellan det smarta systemet (eller folket som berättar vad de ska göra) och resten av världen. En sådan situation kan mycket väl leda till katastrof om målen inte ställs korrekt.

Det ovanliga med superintelligens är att vi inte vet om ett snabbt och kraftfullt genombrott är möjligt i utvecklingen av intelligens: kanske vår nuvarande civilisation som helhet förbättrar sig själv i högsta takt. Det finns dock tillräcklig anledning att tro att vissa tekniker kan förflytta vissa saker mycket snabbare än möjligheterna att förbättra deras kontroll genom det moderna samhället.

Dessutom kan vi ännu inte förstå hur farliga vissa former av superintelligens kan vara och hur lindringsstrategier kommer att fungera. Det är väldigt svårt att spekulera i framtida teknik som vi inte har ännu, eller intelligens som överträffar vad vi har. Bland de listade riskerna är det detta som har flest chanser att antingen bli riktigt storskalig eller förbli bara en hägring.

I allmänhet har detta område ännu inte studerats tillräckligt, vilket är förvånande. Till och med på 1950- och 1960-talet var människor helt övertygade om att superintelligens kunde skapas "under en generation", men vid den tidpunkten fick säkerhetsfrågor inte vederbörlig uppmärksamhet. Kanske tog människor helt enkelt inte sina förutsägelser på allvar, och troligen ansåg de det som ett problem i en avlägsen framtid.

4. Nanoteknik

Nanoteknik handlar om att kontrollera materia med atom- eller molekylär precision. I sig är det inte farligt och tvärtom kan det vara mycket goda nyheter för många användningsområden. Problemet är att växande möjligheter, liksom inom bioteknik, också ökar potentialen för missbruk som är mycket svår att försvara sig mot.

Image
Image

Det stora problemet är inte den ökända "gråa gooen" av självreplikerande nanomaskiner som slukar allt. Detta kommer att kräva skapande av mycket sofistikerade enheter. Det är svårt att skapa en maskin som kan reproducera sig själv: biologi är per definition bättre på denna typ av uppgift. Kanske kommer vissa galningar att kunna göra det, men det finns mer tillgängliga frukter på trädet med destruktiv teknik.

Den mest uppenbara risken är att automatisk precisionstillverkning verkar vara idealisk för billig tillverkning av saker som vapen. I en värld där många regeringar kommer att ha förmågan att "skriva ut" ett stort antal autonoma eller semi-autonoma vapensystem (inklusive möjligheten att öka sin produktion) kan vapenloppet bli mycket intensivt - och resultatet är ökad instabilitet och därför kan det vara frestande att slå till det ögonblick då fienden får en stor fördel.

Vapen kan också vara mycket små i storlek och mycket exakta: de kan vara "smarta gifter" som inte bara kan fungera som en nervgas utan också välja sina offer, eller allestädes närvarande mikrorobotar (gnatbots), miniatyrövervakningssystem för att hålla befolkningen lydig - allt detta är fullt möjligt. Dessutom kan kärnvapen och installationer som påverkar klimatet falla i händerna på inkräktare.

Vi kan inte uppskatta sannolikheten för existentiell risk från framtida nanoteknik, men tydligen kan de vara ganska destruktiva bara för att de kan ge vad vi vill.

5. Mystisk okänd

Den mest alarmerande möjligheten är att det finns något dödligt i världen, men vi vet inte vad det är.

Image
Image

Tystnad i himlen kan vara ett bevis på detta. Beror frånvaron av utlänningar på att livet och intelligensen är mycket sällsynt, eller på grund av att det smarta livet tenderar att förstöras? Om det finns ett framtida stort filter, borde andra civilisationer ha lagt märke till det, men även det hjälpte inte.

Oavsett ett sådant hot kan det vara nästan oundvikligt även om du var medveten om dess existens, oavsett vem du är eller vad du verkligen är. Vi vet inte något om denna typ av hot (inget av ovanstående hot fungerar på det här sättet), men de kan finnas.

Observera att närvaron av något okänt inte betyder att vi inte kan resonera om det. En artikel av Max Tegmark och Nick Bostrom visar att en viss uppsättning risker bör ha ett förhållande mindre än en av en miljard per år, baserat på jordens relativa ålder.

Det kan förvåna dig att klimatförändringar och meteorpåverkan inte finns på denna lista. Klimatförändringar, fruktansvärda som de är, kommer troligen inte att göra hela planeten obeboelig (men det kan utgöra ytterligare hot om vårt försvar visar sig vara ineffektivt). Meteorer kan naturligtvis utplåna oss från jordens yta, men i det här fallet måste vi vara mycket stora förlorare.

Vanligtvis har en viss typ av däggdjur funnits i ungefär en miljon år. Således är den huvudsakliga naturliga utrotningsgraden ungefär en av en miljon per år. Detta är betydligt lägre än risken för ett kärnvapenkrig, som 70 år senare fortfarande är det största hotet mot vår fortsatta existens.

Tillgänglighetsheuristik tvingar oss att överskatta risker som ofta diskuteras i media och bagatellisera de risker som mänskligheten ännu inte har stött på. Om vi vill fortsätta att existera även efter en miljon år måste vi korrigera denna situation.

Anders Sandberg

Populär vetenskap