Existerande Hot: Analysera Scenarier För Mänsklig Utrotning Och Andra Liknande Faror - Alternativ Vy

Innehållsförteckning:

Existerande Hot: Analysera Scenarier För Mänsklig Utrotning Och Andra Liknande Faror - Alternativ Vy
Existerande Hot: Analysera Scenarier För Mänsklig Utrotning Och Andra Liknande Faror - Alternativ Vy

Video: Existerande Hot: Analysera Scenarier För Mänsklig Utrotning Och Andra Liknande Faror - Alternativ Vy

Video: Existerande Hot: Analysera Scenarier För Mänsklig Utrotning Och Andra Liknande Faror - Alternativ Vy
Video: Nationella Strålsäkerhetsdagen 2021 - Tio år sedan olyckan i Fukushima (Hela konferensen) 2024, September
Anonim

Med den tekniska utvecklingen påskyndas kan mänskligheten snabbt närma sig en kritisk punkt i dess utveckling. Förutom välkända hot som kärnkraftsförintelsen, kan utsikterna för snabbt avancerade teknologier som nanosystem och maskininformation ge oss enastående möjligheter och risker. Vår framtid och huruvida vi har en framtid alls beror på hur vi hanterar dessa utmaningar. Med snabbt framstegande teknik behöver vi en bättre förståelse av dynamiken i övergången från det mänskliga till det”post-mänskliga” samhället. Det är särskilt viktigt att veta var fällorna finns: vägar där saker kan gå dödligt fel.

Medan vi har en lång historia av exponering för en mängd personliga, lokala och överförbara faror över hela världen, analyserar den här artikeln en nyutvecklad kategori: existentiella risker. Det här är vad vi kallar riskerna för händelser som kan leda till vår utrotning eller hjärtskada på potentialen för intelligent liv som har utvecklats på jorden. Vissa av dessa faror är relativt välkända, medan andra förbises helt. Befintliga hot har ett antal funktioner som gör konventionell riskhantering ineffektiv i detta fall. Det sista kapitlet i denna artikel diskuterar några av de etiska och politiska konsekvenserna av detta problem. En tydligare förståelse av hotlandskapet gör det möjligt för oss att formulera bättre strategier.

Livet är farligt och faran finns överallt. Lyckligtvis är inte alla risker lika allvarliga. För våra syften kan vi använda tre dimensioner för att beskriva risker: skala, intensitet och sannolikhet. Med "skala" menar jag storleken på den grupp människor som är i riskzonen. Med "intensitet" menar jag hur mycket skada som kommer att göras för varje individ i gruppen. Och med "sannolikhet" menar jag den bästa aktuella subjektiva uppskattningen av sannolikheten för ett negativt resultat.

1. Typologi för risker

Vi kan skilja sex kvalitativt olika grupper av risker, beroende på deras omfattning och intensitet (tabell 1). En tredje dimension, sannolikhet, kan läggas på dessa två dimensioner. Alla saker är lika, en risk är allvarligare om den har en betydande sannolikhet och om våra åtgärder kan öka eller minska den.

Skala / intensitet: Bearable Intensity Dödlig intensitet

global ozonnedbrytning X

Kampanjvideo:

lokal ekonomisk nedgång i landet folkmord

Personlig bilstöld Död

"Personligt", "lokalt" eller "globalt" avser storleken på befolkningen som påverkas direkt; global risk påverkar hela mänskligheten (och våra ättlingar).”Tålbar riskintensitet” och”dödlig intensitet” hänvisar till hur dåligt befolkningen i risken kommer att påverkas. Den acceptabla risken kan också leda till stora förstörelser, men det finns fortfarande möjlighet att återhämta sig från skador eller hitta sätt att övervinna de negativa konsekvenserna. Däremot är den ultimata risken risken när föremål som utsätts för det antingen dör eller skadas på ett sådant sätt att de radikalt minskar deras potential att leva det liv de försöker leva. Vid personliga risker kan det slutliga resultatet till exempel vara dödsfall, irreversibel allvarlig hjärnskada,eller livstids fängelse. Ett exempel på en lokal risk för dödsfall kan vara folkmord, vilket kan leda till förstörelse av ett helt folk (vilket hände med flera indiska folk). Ett annat exempel är omvandling till evigt slaveri.

2. Förekomstrisker

I den här artikeln kommer vi att diskutera risker för den sjätte kategorin, som är markerad i tabellen som X. Detta är en kategori av globala dödliga risker. Jag kommer att kalla dem existentiella hot.

Befintliga hot skiljer sig från globala tolerabla risker. Exempel på det senare är: hot mot den biologiska mångfalden i den jordiska ekosfären, måttlig global uppvärmning (och till och med stor) och eventuellt kvävande kulturella och religiösa eror som "mörka tidsåldrar", även om de spänner över hela samhället, om de förr eller senare slutar (även om se Screech-kapitlet nedan). Att säga att en global risk är acceptabel är naturligtvis inte att säga att det är acceptabelt eller inte särskilt allvarligt. Ett världskrig med konventionella vapen eller ett decennium av det nazistiska riket kommer att vara extremt svåra händelser, trots att de faller i kategorin tolerabla globala risker, eftersom mänskligheten så småningom kan återhämta sig. (Å andra sidan,dessa händelser kommer att vara en lokal dödsrisk för många individer och för förföljda etniska grupper.)

Jag kommer att använda följande definition av existentiell risk:

Ett hot mot existensen är en risk där ett negativt resultat antingen förstör det intelligenta livet som har uppstått på jorden, eller irreversibelt och avsevärt minskar dess potential.

Existens är en risk som hotar mänskligheten som helhet. Sådana katastrofer har enorma negativa konsekvenser för hela den jordiska civilisationens framtid.

3. Det unika problemet med hot mot existensen

Riskerna i den sjätte kategorin har nyligen uppkommit. Detta är en av anledningarna till att det är användbart att dela dem i en separat kategori. Vi har inte utvecklat mekanismer, naturliga eller kulturella, för att hantera sådana risker. Våra institutioner och försvarsstrategier har utformats av risker som farliga djur, fientliga människor eller stammar, förgiftad mat, bilolyckor, Tjernobyl, Bhopal, vulkanutbrott, jordbävningar, torka, första världskriget, andra världskriget, influensaepidemier, smittkoppor, svart pest och AIDS. Denna typ av katastrof har hänt många gånger, och vår kulturella inställning till risk har formats genom prövning och fel vid hantering av sådana hot. Men att vara en tragedi direkt för deltagarna i dessa evenemang,ur ett brett perspektiv - från hela mänsklighetens synvinkel - var till och med de mest fruktansvärda av dessa katastrofer bara krusningar på ytan av livets stora hav. De påverkade inte nämnvärt det totala antalet glada och lidande människor, och bestämde inte heller det artens långsiktiga öde.

Förutom art-förstörande kometer och asteroide-kollisioner (som är extremt sällsynta) fanns det förmodligen inga betydande hot mot existensen förrän i mitten av 1900-talet, och vi kunde verkligen inte göra någonting åt någon av dem.

Det första människoskapade hotet mot existensen var den första atombomben. Då var det en viss oro för att explosionen skulle sätta igång en kedjereaktion genom att”sätta eld på” atmosfären. Även om vi nu vet att ett sådant resultat var fysiskt omöjligt, så var detta antagande vid tiden förenligt med definitionen av ett existensiellt hot. För att något ska vara en risk, baserat på tillgänglig kunskap och förståelse, är det tillräckligt att det finns en subjektiv sannolikhet för ett ogynnsamt resultat, även om det senare visar sig att det objektivt inte fanns någon chans att något dåligt hände. Om vi inte vet om något är objektivt riskabelt är det riskabelt i subjektiv mening. Denna subjektiva mening är naturligtvis vad vi borde basera våra beslut på. Vi måste när som helst använda vår bästa subjektiva bedömning av huruvidavilka är de objektiva riskfaktorerna.

Ett mycket större hot mot existensen uppstod samtidigt med uppkomsten av arsenaler av kärnvapen i Sovjetunionen och USA. Ett fullständigt kärnvapenkrig var möjligt med en betydande grad av sannolikhet och med konsekvenser som kunde vara så ihållande att de skulle karakteriseras som globala och slutliga. Bland de människor som var bäst bekant med den information som var tillgänglig vid den tiden, fanns det en verklig oro för att ett kärnvapen Armageddon skulle kunna hända och att det kunde utplåna vår art eller förstöra den mänskliga civilisationen permanent. i en framtida konfrontation, av misstag eller med avsikt. Det finns också risken att andra länder en dag kan bygga upp stora arsenaler. Observera dock att ett litet utbyte av kärnkraftsattacker, till exempel mellan Indien och Pakistan,är inte ett hot mot existensen, eftersom det inte kommer att förstöra mänskligheten och inte irreversibelt skada mänsklig potential. Ett sådant krig skulle emellertid vara en lokal dödlig risk för dessa städer att bli riktade. Tyvärr kommer vi att se att kärnkraft Armageddon och kometär eller asteroidpåverkan bara är ett förspel till hot mot existensen under 2000-talet.

Följande anmärkningar illustrerar den speciella karaktären av de utmaningar som ställs av existentiella hot.

Vår inställning till existensiella hot kan inte baseras på rättegång och fel. Det finns inget sätt att lära av misstag. Den reaktiva metoden - att titta på vad som hände, begränsa skadorna och lära av erfarenheten - fungerar inte. Snarare måste vi ta en proaktiv strategi. Detta kräver framsyn för att upptäcka nya typer av risker och en vilja att vidta avgörande förebyggande åtgärder och betala deras moraliska och ekonomiska kostnader.

Vi kan inte med säkerhet lita på våra institutioner, moraliska normer, sociala attityder eller nationell säkerhetspolitik som har utvecklats från vår erfarenhet av att hantera andra typer av risker. Befintliga hot är ett annat odjur. Det kan vara svårt för oss att ta dem så seriöst som de förtjänar, eftersom vi aldrig har upplevt sådana katastrofer. Vårt kollektiva rädselssvar är förmodligen dåligt kalibrerat till hotets omfattning.

Minskning av existentiella hot är en allmän allmänhet (Kaul, 1999) och kan därför inte tillräckligt tillhandahållas av marknaden (Feldman, 1980). Befintliga hot är ett hot för alla och kan kräva ett internationellt svar. Respekten för nationell suveränitet är inte en legitim ursäkt för att inte vidta åtgärder mot kritiska existenser.

Om vi tar hänsyn till kommande generationers välbefinnande, multipliceras skadorna från existentiella hot med en annan faktor, som beror på om och hur mycket framtida fördelar som beaktas (Caplin, Leahy 2000; Schelling 2000: 833-837).

Med tanke på ämnets obestridliga betydelse är det förvånande hur lite systematiskt arbete som har gjorts på detta område. Detta beror delvis på att de allvarligaste riskerna uppstår (som vi kommer att visa senare) från förväntade framtida tekniker som vi nyligen har börjat förstå. En annan del av förklaringen kan vara den oundvikligen tvärvetenskapliga och spekulativa karaktären hos forskningsämnet. Och delvis kan försummelsen hänföras till en motvilja att tänka på allvar över deprimerande ämnen. Detta betyder inte att vi ska bli avskräckta, utan att vi måste titta hårt på vad som kan gå fel så att vi kan skapa robusta strategier för att förbättra våra överlevnadschanser. För att göra detta måste vi veta var vi ska fokusera våra ansträngningar.

4. Klassificering av existensrisker

Vi kommer att använda följande fyra kategorier för att klassificera existentiella risker:

Explosions (Bangs) - Det intelligenta livet som har uppstått på jorden utrotas till följd av en relativt plötslig katastrof, som kan uppstå antingen som ett resultat av en olycka eller med avsikt.

Crunches - Mänsklighetens förmåga att utvecklas till posthumanitet skadas irreversibelt, även om människor fortsätter att leva på något sätt.

Skrik - Någon form av posthumanitet kommer att uppnås, men det kommer bara att vara en extremt smal bråkdel av spektrumet för vad som är möjligt och önskat.

Whimpers - Posthuman civilisation uppstår, men utvecklas i en riktning som gradvis, men oåterkalleligt, leder till fullständigt försvinnande av saker som vi värdesätter, eller till ett tillstånd där dessa värden realiseras endast i liten utsträckning från den nivå som kan uppnås.

Beväpnad med en sådan klassificering kan vi börja analysera de mest troliga scenarierna i varje kategori. Definitionerna kommer också att bli tydligare när vi fortskrider.

Tack vare accelerationen av den tekniska utvecklingen närmar sig mänskligheten en kritisk punkt i dess utveckling. Förutom de kända hoten som kärnkraftsförintelsen förutsätter utsikterna att snabbt utveckla teknologier som nanosystem och maskinell intelligens oss enastående möjligheter och risker. Vår framtid och om vi kommer att ha en framtid beror på hur vi hanterar dessa utmaningar. Med snabb framstegande teknik behöver vi en bättre förståelse av dynamiken i övergången från mänskligt till postmänskligt samhälle. Det är viktigt att veta var fällorna finns: vägar där saker kan gå dödligt fel.

Medan vi har en lång historia av exponering för en mängd personliga, lokala och överförbara faror över hela världen, analyserar den här artikeln en nyutvecklad kategori: existentiella risker. Detta är vad vi kallar riskerna för händelser som kan leda till mänsklig utrotning eller hjärtskada på potentialen för intelligent liv som har utvecklats på jorden. Vissa av dessa faror är relativt välkända, medan andra förbises. Befintliga hot har ett antal funktioner som gör konventionell riskhantering ineffektiv i detta fall. Det sista kapitlet i denna artikel diskuterar några av de etiska och politiska konsekvenserna av detta problem. En tydligare förståelse av hotlandskapet gör det möjligt för oss att formulera huvudstrategierna.

Det är farligt att leva, och fara finns överallt. Lyckligtvis är inte alla risker lika allvarliga. För våra ändamål använder vi tre dimensioner för att beskriva risker: skala, intensitet och sannolikhet. Med "skala" menar jag storleken på den grupp människor som är i riskzonen. Med "intensitet" menar jag hur mycket skada som kommer att göras för varje individ i gruppen. Och med "sannolikhet" menar jag den bästa aktuella subjektiva uppskattningen av sannolikheten för ett negativt resultat.

5. Typologi för risker

Det finns sex riskgrupper, beroende på omfattning och intensitet.

Skala / intensitet: Bearable Intensity / Dödlig intensitet

global / ozonnedbrytning, X

lokal / ekonomisk nedgång i landet, folkmord

Personligt / bilstöld, död

En tredje dimension, sannolikhet, kan läggas på dessa två dimensioner. Alla saker är lika, en risk är allvarligare om den har en betydande sannolikhet och om våra åtgärder kan öka eller minska den.

"Personligt", "lokalt" eller "globalt" avser storleken på befolkningen som påverkas direkt; global risk påverkar hela mänskligheten (och ättlingar).”Tålbar riskintensitet” och”dödlig intensitet” hänvisar till hur dåligt befolkningen i risken kommer att påverkas. Den acceptabla risken kan också leda till förstörelse, men det finns fortfarande möjlighet att återhämta sig från skador eller hitta sätt att övervinna de negativa konsekvenserna. Däremot är den ultimata risken den risken när objekt som utsätts för det antingen dör eller skadas på ett sådant sätt att de minskar deras potential att leva det liv de försöker leva. För personliga risker är det slutliga resultatet död, irreversibel, allvarlig hjärnskada eller livstidsfängelse. Ett exempel på en lokal dödlig risk är folkmord som leder till förstörelse av ett folk (vilket hände med flera indiska folk). Ett annat exempel är omvandling till evigt slaveri.

Existensrisker

I den här artikeln kommer vi att diskutera risker för den sjätte kategorin, som är markerad i tabellen som X. Detta är en kategori av globala dödliga risker. Jag kommer att kalla dem existentiella hot.

Befintliga hot skiljer sig från globala tolerabla risker. Exempel på det senare är: hot mot den biologiska mångfalden i den jordiska ekosfären, måttlig global uppvärmning (och till och med stor) och eventuellt kvävande kulturella och religiösa eror som "mörka tidsåldrar", även om de spänner över hela samhället, om de förr eller senare slutar (även om se Screech-kapitlet nedan). Att säga att en global risk är acceptabel innebär naturligtvis inte att den är acceptabel eller inte allvarlig.

Ett världskrig med standardvapen eller ett decennium av det nazistiska riket kommer att vara extremt svåra händelser, trots att de faller i kategorin tolerabla globala risker, eftersom mänskligheten så småningom kan återhämta sig. (Men dessa händelser kommer att vara en lokal dödsrisk för många och för förföljda etniska grupper.)

Jag kommer att använda följande definition av existentiell risk:

Ett hot mot existensen är en risk där ett negativt resultat antingen förstör det intelligenta livet som har uppstått på jorden, eller irreversibelt och minskar dess potential.

Existens är en risk som hotar mänskligheten som helhet. Sådana katastrofer har negativa konsekvenser för den jordiska civilisationens framtid.

Det unika med det existentiella hotproblemet

Riskerna i den sjätte kategorin har nyligen uppkommit. Detta är en av anledningarna till att det är användbart att dela dem i en separat kategori. Vi har inte utvecklat mekanismer, naturliga eller kulturella, för att hantera sådana risker. Våra institutioner och försvarsstrategier har utformats av risker som farliga djur, fientliga människor eller stammar, förgiftad mat, bilolyckor, Tjernobyl, Bhopal, vulkanutbrott, jordbävningar, torka, första världskriget, andra världskriget, influensaepidemier, smittkoppor, svart pest och AIDS. Denna typ av katastrof har hänt många gånger, och vår kulturella inställning till risk har formats genom prövning och fel vid hantering av sådana hot. Men att vara en tragedi direkt för deltagarna i dessa evenemang,ur ett brett perspektiv - från mänsklighetens synvinkel - var till och med de mest fruktansvärda av dessa katastrofer bara krusningar på ytan av det stora livets hav.

De påverkade inte nämnvärt det totala antalet glada och lidande människor, och de bestämde inte heller det artens långsiktiga öde.

Förutom arter som förstörde kometer och asteroidkollisioner (som är extremt sällsynta) fanns det inga hot mot existensen förrän mitten av 1900-talet, och vi kunde definitivt inte göra någonting med någon av dem.

Det första människoskapade hotet mot existensen var den första atombomben. Då var det en viss oro för att explosionen skulle sätta igång en kedjereaktion genom att”sätta eld på” atmosfären. Även om vi nu vet att ett sådant resultat var fysiskt omöjligt, så var detta antagande vid tiden förenligt med definitionen av ett existensiellt hot. För att något ska vara tillräckligt en risk, att det finns en subjektiv sannolikhet för ett ogynnsamt resultat, även om det senare visar sig att objektivt sett fanns det ingen risk att något dåligt hände. Om vi inte vet om något är objektivt riskabelt eller inte är det en subjektiv risk. Denna subjektiva mening är naturligtvis vad vi borde basera våra beslut på. Vid varje given tidpunkt måste vi använda vår bästa subjektiva bedömning av vad de objektiva riskfaktorerna är.

Ett mycket större hot mot existensen uppstod samtidigt med uppkomsten av arsenaler av kärnvapen i Sovjetunionen och USA. Ett fullständigt kärnvapenkrig var möjligt med en betydande grad av sannolikhet och med konsekvenser som kunde vara så ihållande att de karakteriserades som globala och slutliga. Det fanns en stor oro bland folket som var bäst bekant med den information som var tillgänglig vid den tidpunkten att ett kärnvapen Armageddon kunde hända och att det skulle utplåna vår art eller förstöra den mänskliga civilisationen för alltid.

Ryssland och USA har enorma kärnkraftsarsenaler som kan användas i framtida konfrontationer, av misstag eller med avsikt. Det finns också risken att andra länder en dag kan bygga upp stora arsenaler. Men ett litet utbyte av nukleära strejker, till exempel mellan Indien och Pakistan, är inte ett hot mot existensen, eftersom det inte kommer att förstöra mänskligheten och inte irreversibelt skada människans potential. Ett sådant krig skulle emellertid vara en lokal dödlig risk för dessa städer att bli riktade. Tyvärr kommer vi att se att kärnkraft Armageddon och kometär eller asteroidpåverkan bara är ett förspel till hot mot existensen under 2000-talet.

Arten av de problem som uppstår till följd av existentiella hot illustreras av följande kommentarer.

Vår inställning till existensiella hot kan inte baseras på rättegång och fel. Du kan inte lära av misstag. Den reaktiva metoden - att titta på vad som hände, begränsa skadorna och lära av erfarenheten - fungerar inte. Vi måste ta ett proaktivt synsätt. Detta kräver framsyn för att upptäcka nya typer av risker och en vilja att vidta förebyggande åtgärder och betala för deras moraliska och ekonomiska kostnader.

Vi kan inte med säkerhet lita på institutioner, moraliska normer, sociala attityder eller nationell säkerhetspolitik som har utvecklats av erfarenhet av att hantera andra typer av risker. Befintliga hot är ett annat odjur. Det är svårt för oss att ta dem så seriöst som de förtjänar, eftersom vi aldrig har upplevt sådana katastrofer. Det kollektiva rädselssvaret är förmodligen dåligt kalibrerat till hotet.

Att minska existentiella hot är en allmän allmänhet (Kaul, 1999) och levereras därför av marknaden (Feldman, 1980). Existerande hot är hot mot alla och kräver internationellt svar. Respekten för nationell suveränitet är inte en legitim ursäkt för att inte vidta åtgärder mot kritiska existenser.

Med tanke på ämnets obestridliga betydelse är det förvånande hur lite systematiskt arbete som har gjorts på detta område. Detta beror delvis på att de allvarligaste riskerna uppstår (som vi kommer att visa senare) från förväntade framtida tekniker som vi nyligen har förstått.

En annan del av förklaringen kan vara den oundvikligen tvärvetenskapliga och spekulativa karaktären hos forskningsämnet. Och delvis kan försummelsen hänföras till en motvilja att tänka på allvar över deprimerande ämnen. Detta betyder inte att vi ska bli avskräckta, utan att vi måste titta hårt på vad som kan gå fel så att vi kan skapa robusta strategier för att förbättra våra överlevnadschanser. För att göra detta måste vi veta var vi ska fokusera våra ansträngningar.

Befintlig riskklassificering

Vi kommer att använda följande fyra kategorier för att klassificera existentiella risker:

Explosions (Bangs) - Det intelligenta livet som har uppstått på jorden utrotas till följd av en relativt plötslig katastrof, som kan uppstå antingen som ett resultat av en olycka eller med avsikt.

Crunches - Mänsklighetens förmåga att utvecklas till posthumanitet skadas irreversibelt, även om människor fortsätter att leva på något sätt.

Skrik - Någon form av posthumanitet kommer att uppnås, men det kommer bara att vara en extremt smal bråkdel av spektrumet för vad som är möjligt och önskat.

Whimpers - Posthuman civilisation uppstår, men utvecklas i en riktning som gradvis, men oåterkalleligt, leder till fullständigt försvinnande av saker som vi värdesätter, eller till ett tillstånd där dessa värden realiseras endast i liten utsträckning från den nivå som kan uppnås.

Beväpnad med en sådan klassificering kan vi börja analysera de mest troliga scenarierna i varje kategori. Definitionerna kommer också att bli tydligare när vi fortskrider.

Lugg

Detta är den mest uppenbara formen av global risk. Detta koncept är det enklaste att förstå. Nedan följer några av de mest troliga sätten att explosivt avsluta världen. Jag försökte ordna dem i stigande ordning (enligt min uppskattning) om sannolikheten för att orsaka utrotning av intelligent liv på jorden; men min avsikt när det gäller beställning var att skapa en grund för ytterligare diskussioner, snarare än att göra några entydiga uttalanden.

1. Avsiktligt missbruk av nanoteknologi

I sin mogna form tillåter molekylär nanoteknik skapandet av självreplikerande robotar på storleken av bakterier som kan matas på avlopp eller annat organiskt material (Drexler 1985, 1992; Merkle et al. 1991: 187-195; Freitas 2000). Sådana replikatorer kan äta upp biosfären eller förstöra den på andra sätt, som att förgifta den, bränna den eller blockera solljus. En man med kriminella avsikter med denna nanoteknologi kan orsaka förstörelse av intelligent liv på jorden genom att släppa sådana nanoboter i miljön.

Tekniken för att skapa destruktiva nanobots verkar vara mycket enklare än tekniken för att skapa ett effektivt försvar mot en sådan attack (global nanoteknologiskt immunsystem, "aktiv sköld" (Drexler 1985)). Därför kommer det troligtvis att vara en sårbarhetsperiod under vilken det är nödvändigt att förhindra att dessa tekniker faller i fel hand. Dessutom kan dessa tekniker vara svåra att hantera eftersom de inte kräver sällsynta radioaktiva isotoper eller stora, lätt detekterbara fabriker, som är fallet vid tillverkningen av kärnvapen (Drexler 1985).

Även om effektiva försvar mot begränsad nanoteknisk attack finns på plats innan farliga replikatorer utvecklas och förvärvas av självmordsregimer eller terrorister, finns det fortfarande faran för ett vapenkapp mellan nanotek-innehavande stater. Det har hävdats (Gubrud 2000) att molekyltillverkning kommer att leda till större instabilitet i vapen ras och större instabilitet i förhållande till kriser än kärnvapen. Instabiliteten i vapenloppet innebär att varje tävlande sida kommer att domineras av önskan att stärka sina vapen, vilket leder till en snabb utfoldning av vapenloppet. Instabilitet i förhållande till kriser innebär att att slå först kommer att vara det viktigaste incitamentet för varje sida. Två ungefär lika starka motståndare,Efter att ha förvärvat nanoteknologiska vapen kommer de från denna synvinkel att börja med massproduktion och design av vapen, som kommer att fortsätta tills en kris inträffar och ett krig börjar, eventuellt kan orsaka universal slutlig förstörelse. Att detta vapenkapp kan förutsägas är inte en garanti för att ett internationellt säkerhetssystem kommer att införas i tid för att förhindra denna katastrof. Ett kärnvapenkapp mellan USSR och USA förutsågs, men det hände ändå.att det internationella säkerhetssystemet kommer att skapas i tid för att förhindra denna katastrof. Ett kärnvapenkapp mellan USSR och USA förutsågs, men det hände ändå.att det internationella säkerhetssystemet kommer att skapas i tid för att förhindra denna katastrof. Ett kärnvapenkapp mellan USSR och USA förutsågs, men det hände ändå.

2. Nuclear Holocaust

USA och Ryssland har fortfarande enorma reserver av kärnvapen. Men kommer ett fullmänt kärnkraftkrig att leda till en verklig utrotning av mänskligheten? Anteckna det:

(a) för att det ska bli en existentiell risk är det tillräckligt att vi inte är säkra på att det inte kommer att hända.

(b) de klimatiska effekterna av ett storskaligt kärnvapenkrig är lite kända (det finns möjlighet till en kärnvinter).

(c) Framtida vapenkapplöpning mellan länder kan inte uteslutas, och detta kan leda till uppkomsten av ännu större arsenaler än de som fanns vid det kalla kriget. Världsbeståndet av plutonium ökar stadigt och har nått 2000 ton, vilket är ungefär tio gånger mer än kvar i stridsspetsar (Leslie 1996: 26). Även om vissa människor överlever de kortsiktiga effekterna av kärnvapenkrig, kan det leda till att civilisationen kollapsade. Stenålderns mänskliga ras kan eller inte är mer motståndskraftig mot utrotning än andra djurarter.

3. Vi lever i en simulering och det stängs av

Det kan hävdas att hypotesen att vi lever i en datorsimulering bör tillskrivas en betydande sannolikhet (Bostrom 2001). Huvudtanken bakom den så kallade Proof of Simulation är att enorma mängder datorkraft kan finnas tillgängliga i framtiden (Moravec 1989, 1999), och att de kan användas bland annat för att köra ett stort antal finstrukturerade simuleringar från tidigare. mänskliga civilisationer. På några få inte så otroliga antaganden kan resultatet bli att de flesta sinnen som våra är simulerade sinnen, och därför måste vi tillskriva en betydande sannolikhet att vi är sådana simulerade sinnen snarare än de (subjektivt omöjliga att skilja) sinnen från naturligt utvecklade varelser. Och i så fall riskerar vi attatt simuleringen kan stängas av när som helst. Beslutet att stoppa vår simulering kan bero på våra handlingar eller externa faktorer.

Även om det kan tyckas useriöst för någon att lägga fram en sådan radikal hypotes bredvid ett specifikt hot om ett kärnbrott, måste vi basera våra slutsatser på resonemang, inte utbildad intuition. Tills det finns ett motbevis mot de argument som Bostrom (2001) presenterade, skulle det vara intellektuellt oärligt att bortse från avstängning av simulering som en möjlig orsak till mänsklig utrotning.

4. Dåligt programmerad superintelligens

När vi skapar den första superintelligenta enheten (Moravec 1989, 1998, 1999; Vinge 1993; Bostrom 1998; Kurzweil 1999; Hanson et al. 1998), kan vi göra ett misstag och sätta mål som kommer att rikta det mot förstörelsen av mänskligheten, med tanke på dess kolossala en intellektuell fördel som ger styrkan att göra det. Vi kan till exempel felaktigt höja ett lägre mål till en supergoal status. Vi ber honom att lösa några matematiska problem, och han advarar och förvandlar all materia i solsystemet till en enorm datoranordning, på vägen och dödar personen som ställde denna fråga. (För ytterligare analys av detta ämne, se (Yudkowsky 2001)).

5. Genetiskt manipulerat biologiskt objekt

Som ett resultat av de enorma framstegen inom genteknologi som nu äger rum kan det vara möjligt för en tyrann, terrorist eller galning att skapa ett "dommedagsvirus": en organisme som kombinerar lång latens med hög virulens och dödlighet (National Intelligence Council 2000).

Farliga virus kan till och med odlas oavsiktligt, vilket nyligen påvisats av australiska forskare som skapade ett modifierat mousepox Ectromelia-virus med 100% dödlighet när de försökte utforma ett preventivvirus för möss som skulle användas för att kontrollera gnagare skadedjur (Nowak 2001). Även om detta specifika virus inte infekterar människor, misstänks det att liknande förändringar skulle öka dödligheten hos det mänskliga smittkoppevirus. Det som lägger till den potentiella faran här är att studien snabbt publicerades i den öppna vetenskapliga litteraturen (Jackson et al. 2001: 1479-1491). Det är sällsynt att information skapad i öppna biotekniska projekt hålls hemlig, oavsett omhur allvarlig den potentiella faran den har - och detsamma gäller för forskning inom nanoteknologi.

Genetisk medicin kommer att leda till bättre droger och vacciner, men det finns ingen garanti för att försvar kommer att hålla jämna steg med brottet. (Till och med ett slumpmässigt genererat mousepox-virus hade 50% dödlighet i vaccinerade möss.) I slutändan kan farorna med biologiska vapen begravas genom att nanomedicin främjas, men även om nanoteknik har en enorm långsiktig potential för medicin (Freitas 1999), bär det sina egna faror.

6. Felaktig användning av farlig nanoteknologi ("grå goo")

Möjligheten till en olycka kan aldrig uteslutas helt.

Det finns dock många sätt att undvika olyckor med mord genom att använda pålitliga tekniska lösningar. Den farliga användningen av självreplikerande system kan undvikas; du kan göra nanobots beroende av användning av någon sällsynt kemikalie som inte finns i naturen; du kan omsluta dem i en förseglad miljö; de kan utformas så att varje mutation nästan säkert kommer att få nanoboten att sluta fungera (Foresight Institute 2000). Av detta skäl är oavsiktligt missbruk av nanobots mycket mindre oroande än skadligt missbruk (Drexler 1985; Freitas 2000; (Foresight Institute 1997-1991).

Skillnaden mellan oavsiktlig och avsiktlig kan dock bli suddig. Även om det i princip verkar vara möjligt att göra globala nanoteknologiska katastrofer mycket osannolika, kan specifika omständigheter förhindra att denna idealiska säkerhetsnivå realiseras. Jämför nanoteknologi med nukleär teknik. Ur teknisk synvinkel är det naturligtvis möjligt att använda kärnkraftteknologi endast för fredliga syften, till exempel bara i kärnreaktorer, som har noll sannolikheten för att förstöra hela planeten. Men i praktiken visade det sig vara omöjligt att undvika användning av kärnkraftsteknik också för skapandet av kärnvapen, vilket ledde till en vapenkapp. Med nukleära arsenaler på en hög nivå av kampberedskap är en hög risk för oavsiktligt krig oundviklig. Samma sak kan hända med nanoteknologi:de kan tvingas till militära syften på ett sätt som kan skapa en överhängande risk för allvarliga olyckor.

I vissa situationer kan det till och med vara strategiskt fördelaktigt att medvetet göra en viss teknik eller ett kontrollsystem riskabelt, till exempel för att skapa ett "fundamentalt oförutsägbart hot, där det alltid finns ett element av en chans" - (Schelling 1960).

7. Något oväntat

Vi behöver en sådan förenande kategori. Det skulle vara dumt att tro att vi redan har uppfunnit och förutspått alla betydande hot. Framtida tekniska eller vetenskapliga upptäckter kan lätt skapa nya sätt att förstöra världen.

Vissa förutsebara faror (och därför inte från denna kategori) utesluts från listan över explosioner på grund av att de verkar vara alltför osannolika orsaker till en global katastrof, nämligen: solstolar, supernovaer, explosioner och sammanslagningar av svarta hål, gammastrålar, utbrott i det galaktiska centrumet, övervakningskanaler, förlust av biologisk mångfald, ökad luftföroreningar, gradvis förlust av människans förmåga att reproducera och många religiösa dommarscenarier. Hypotesen om att vi en dag kommer att uppnå "upplysning" och begå kollektivt självmord eller sluta multiplicera, som VHEMT (The Voluntary Human Extinction Movement) förespråkar hopp (Knight 2001), verkar osannolikt. Om, verkligen,det skulle vara bättre att inte existera (som Silenus berättade för King Midas i grekisk myt och som Arthur Schopenhauer hävdade (Schopenhauer 1891), även om han av skäl som är specifika för hans speciella filosofiska system inte agiterade för självmord), skulle vi inte betrakta detta scenario globalt en katastrof. Antagandet att att leva är inte en dålig sak bör ses som ett underförstått antagande i definitionen av Explosions. Falskt allmänt självmord utgör en risk för existens, även om dess sannolikhet verkar extremt liten. (Mer information om etik för människors utrotning, se kapitel 4 i (Leslie 1996: 26).)att det inte är dåligt att vara vid liv, bör betraktas som ett implicit antagande i definitionen av Explosions. Falskt allmänt självmord utgör en risk för existens, även om dess sannolikhet verkar extremt liten. (Mer information om etik för människors utrotning, se kapitel 4 i (Leslie 1996: 26).)att det inte är dåligt att vara vid liv, bör betraktas som ett implicit antagande i definitionen av Explosions. Falskt allmänt självmord utgör en risk för existens, även om dess sannolikhet verkar extremt liten. (Mer information om etik för människors utrotning, se kapitel 4 i (Leslie 1996: 26).)

8. Katastrofer till följd av fysiska experiment

Manhattan-projektets atombombdesigners var oroliga för att en explosion skulle antända atmosfären med moderna motsvarigheter.

Det har förekommit spekulationer om att experiment med framtida partikelacceleratorer med hög energi kan orsaka förstörelse av det metastabla tillståndet i vakuumet där vårt kosmos kan vara beläget och förvandla det till ett "verkligt" vakuum med en lägre energitäthet (Coleman, Luccia 1980: 3305-3315). Detta kommer att skapa en expanderande bubbla av total förintelse som kommer att sprida sig över galaxen och därefter med ljusets hastighet, och riva all materia isär när den rör sig.

En annan idé är att acceleratorexperiment kan skapa negativt laddade, stabila "strangelets" (en hypotetisk form av kärnämne) eller skapa ett mikroskopiskt svart hål som kastar sig in i jordens centrum och börjar konsumera resten av planeten (Dar et al. 1999): 142-148). Sådana scenarier verkar omöjliga baserat på våra bästa fysikteorier. Men anledningen till att vi gör experimenten är just därför att vi inte vet vad som faktiskt kommer att hända. Mycket övertygande bevis är att energitätheten som kan uppnås i moderna acceleratorer är mycket lägre än de som finns i naturen vid kollisioner av kosmiska strålar (Dar et al. 1999: 142-148; Turner, Wilczek 1982: 633-634). Det är dock möjligtatt andra faktorer än energitäthet är viktiga för dessa hypotetiska processer, och dessa faktorer kommer att sammanföras i framtida nya experiment.

Den främsta orsaken till oro för "fysiska katastrofer" är metaanivåobservationen att upptäckter av alla typer av farliga fysiska fenomen händer hela tiden, så även om nu alla fysiska katastrofer som vi tänker på är helt osannolika eller omöjliga, kan de fortfarande det finns mer realistiska vägar till katastrof som väntar på att upptäckas. De som ges här är inget annat än illustrationer av det allmänna fallet.

9. Naturligt förekommande sjukdom

Tänk om aids var lika smittsam som förkylningen?

Det finns flera funktioner i den moderna världen som kan göra en global pandemi mycket troligare än någonsin tidigare. Resor, livsmedelshandel och stadsliv har alla ökat avsevärt i modern tid, vilket gör det lättare för en ny sjukdom att snabbt infektera större delen av världens befolkning.

10. Kollision med en asteroid eller komet

Det finns en verklig men mycket liten risk att vi kommer att utrotas av en asteroid- eller kometpåverkan (Morrison et al. 1994).

För att orsaka människors utrotning kan den påverkande kroppen behöva vara mer än 1 km i diameter (och antagligen 3-6 km.) Det har funnits minst fem, och kanske mer än ett dussin massutsläckningar på Jorden, och åtminstone några av dem orsakades antagligen av kollisioner. (Leslie 1996: 81 f). I synnerhet var utsläckningen av dinosaurier för 65 miljoner år sedan förknippad med fallet av en asteroid med 10-15 km i diameter på Yucatan-halvön. Det tros att en kropp på 1 km eller mer i diameter kolliderar med jorden i genomsnitt en gång var halv miljon år. Vi har hittills bara katalogiserat en liten del av potentiellt farliga kroppar.

Om vi kan upptäcka ett närmande organ i tid kommer vi att ha en god chans att avleda den genom att avlyssna den med en kärnmissil (Gold 1999).

11. Ostoppbar global uppvärmning

Det finns ett scenario att utsläpp av växthusgaser i atmosfären kan vara en process med stark positiv feedback. Kanske är det här som hände med Venus, som nu har en atmosfär på och en temperatur på 450 ° C. Förhoppningsvis har vi emellertid de tekniska medlen för att motverka denna trend när den blir riktigt farlig.

Nick Bostrom

Rekommenderas: