De Fem Alvorligste Truslene Mot Menneskehetens Eksistens - Alternativt Syn

Innholdsfortegnelse:

De Fem Alvorligste Truslene Mot Menneskehetens Eksistens - Alternativt Syn
De Fem Alvorligste Truslene Mot Menneskehetens Eksistens - Alternativt Syn

Video: De Fem Alvorligste Truslene Mot Menneskehetens Eksistens - Alternativt Syn

Video: De Fem Alvorligste Truslene Mot Menneskehetens Eksistens - Alternativt Syn
Video: #CancelKorea & #NoKorea Trump vs Biden 2020 Presidential Election Final Battle. 2024, Kan
Anonim

Båret bort av sprøytenarkomanen om dagens "kriser" som menneskeheten står overfor, glemmer vi det store antall generasjoner som vi håper vil erstatte oss. Vi snakker ikke om de menneskene som vil leve 200 år etter oss, men om de som vil leve tusen eller ti tusen år etter oss.

Jeg bruker ordet "håp" fordi vi står overfor risikoer som kalles eksistensielle og som kan ødelegge menneskeheten. Disse risikoene er ikke bare forbundet med store katastrofer, men med katastrofer som kan avslutte historien.

Imidlertid ignorerer ikke alle den fjerne fremtiden. Mystikere som Nostradamus prøver regelmessig å bestemme en dato for verdens ende. H. G. Wells forsøkte å utvikle en vitenskap om prediksjon og er kjent for å ha beskrevet menneskehetens fremtid i The Time Machine. Andre forfattere har kommet med andre versjoner av en fjern fremtid for å advare, underholde eller drømme.

Men selv om alle disse pionerene og futuristene ikke tenkte på menneskehetens fremtid, ville resultatet fortsatt være det samme. Det var ikke mye mennesket kunne ha gjort før for å redde oss fra en eksistensiell krise, eller til og med å forårsake den.

I dag er vi i en mer privilegert posisjon. Menneskelig aktivitet former gradvis planeten vår. Selv om vi fremdeles er langt fra å kontrollere katastrofer, utvikler vi allerede teknologier som kan redusere deres konsekvenser, eller i det minste gjøre noe for den saks skyld.

Fremtiden er ufullkommen

Imidlertid er disse risikoene fortsatt ikke godt forstått. Det er maktesløshet og fatalisme angående de nevnte problemene. Folk har snakket om apokalypser i årtusener, men få har prøvd å forhindre dem. Mennesker er dessuten ikke så sterke når det gjelder problemer som ennå ikke har dukket opp (spesielt på grunn av innvirkningen av tilgjengelighetsheuristikken) - tendensen til å overvurdere sannsynligheten for disse hendelsene, eksempler på som vi er kjent med, og undervurderer hendelsene som vi vi kan ikke huske med en gang).

Kampanjevideo:

Hvis menneskeheten slutter å eksistere, vil denne typen tap i det minste tilsvare tapet av alle levende individer, samt sammenbruddet av alle deres mål. Imidlertid vil tapet sannsynligvis bli mye større. Forsvinningen av en person betyr tapet av betydningen skapt av tidligere generasjoner, tapet av livet til alle fremtidige generasjoner (og antallet fremtidige liv kan være astronomisk), samt alle de verdiene de sannsynligvis kunne skape.

Hvis bevissthet og fornuft ikke lenger er der, kan dette bety at verdien i seg selv slutter å eksistere i universet. Dette er en veldig god moralsk grunn til å jobbe utrettelig for å forhindre eksistensielle trusler. Og på denne veien må vi ikke gjøre en eneste feil.

Image
Image

Når det er sagt, har jeg valgt de fem alvorligste truslene mot menneskelig eksistens. Noen ytterligere omstendigheter bør imidlertid tas i betraktning, siden denne listen ennå ikke er endelig.

I løpet av de siste hundre årene har vi oppdaget eller skapt nye eksistensielle risikoer for oss selv: tidlig på 1970-tallet ble supervulkaner oppdaget, og før Manhattan-prosjektet var atomkrig umulig. Derfor bør vi forvente at andre trusler vises. I tillegg kan noen av de risikoene som virker alvorlige i dag forsvinne når kunnskapen akkumuleres. Sannsynligheten for visse hendelser endres også over tid. Noen ganger skjer dette fordi vi er bekymret for eksisterende risiko og tar tak i årsakene deres.

Til slutt betyr det at noe er mulig og potensielt risikabelt, ikke at det er verdt å bekymre seg for. Det er risiko som vi ikke kan gjøre noe i det hele tatt - for eksempel strømmen av gammastråler som oppstår fra eksplosjonen av galakser. Men hvis vi finner ut at vi er i stand til å gjøre noe, så endres prioriteringene. For eksempel, med forbedring av hygieniske forhold, fremveksten av vaksiner og antibiotika, begynte pesten ikke å bli oppfattet som en manifestasjon av guddommelig straff, men som et resultat av den dårlige helsevesenet.

1. Atomkrig

Mens bare to atombomber har blitt brukt så langt - i Hiroshima og Nagasaki under andre verdenskrig - og lagrene har avvist fra toppene for den kalde krigen, ville det være en feil å tro at atomkrig er umulig. Faktisk ser hun ikke ut til å være utrolig.

Image
Image

Den kubanske missilkrisen var veldig nær å bli en kjernefysisk. Hvis vi går ut fra antagelsen om at en slik krise inntreffer hvert 69. år, og det er en sjanse for hver tredje at det kan føre til utbrudd av en atomkrig, så øker muligheten for en slik katastrofe, og den tilsvarende koeffisienten vil være 1 av 200 per år.

Enda verre, den cubanske missilkrisen er bare den mest berømte saken. Historien om sovjet-amerikansk kjernefysisk avskrekkelse er full av krisesituasjoner og farlige feil. Den faktiske sannsynligheten er ikke lenger avhengig av internasjonal spenning, men sannsynligheten for en kjernefysisk konflikt er sannsynligvis ikke lavere enn en koeffisient på 1 av 1000 per år.

En fullskala atomkrig mellom stormaktene ville føre til at hundrevis av millioner mennesker døde direkte i øyeblikket av utveksling av streiker eller som et resultat av deres konsekvenser - det ville være en utenkelig katastrofe. For eksistensiell risiko er dette likevel ikke nok.

Det samme skal sies om risikoen forbundet med konsekvensene av atomeksplosjoner - de er ofte overdrevne. Lokalt er de dødelige, men globalt sett er de et relativt begrenset problem. Koboltbomber er blitt foreslått som et hypotetisk dommedagsvåpen som er i stand til å ødelegge alt som et resultat av konsekvensene forbundet med bruken av dem, men i praksis er de veldig vanskelige å produsere og dyre. Og deres opprettelse er faktisk umulig.

Den virkelige trusselen er kjernefysisk vinter - det vil si sotpartikler som kan stige opp i stratosfæren og derved forårsake et langsiktig fall i temperatur og dehydrering av planeten. Nåværende klimasimuleringer viser at dette ville gjøre det umulig å dyrke mye av planeten i mange år.

Hvis dette scenariet blir oppfylt, vil milliarder av mennesker dø av sult, og et lite antall overlevende vil bli utsatt for andre trusler, inkludert sykdom. Den største usikkerheten er hvordan sotpartiklene som stiger til himmelen vil oppføre seg: avhengig av sammensetning kan resultatet være annerledes, og så langt har vi ikke en pålitelig måte å måle denne typen konsekvenser på.

2. Pandemier forårsaket av bioteknologi

Naturlige pandemier har forårsaket flere dødsfall enn kriger. Naturlige pandemier utgjør imidlertid neppe en eksistensiell trussel. Vanligvis er det mennesker som er immun mot patogener, og etterkommerne til de overlevende blir enda mer beskyttet.

Image
Image

Evolusjon støtter heller ikke spesielt parasittene som ødelegger vertsorganismer, og derfor har syfilis, som den spredte seg i Europa, blitt en ond drapsmann og en kronisk sykdom.

Dessverre er vi nå i stand til å gjøre sykdommer mer destruktive. Et av de mest kjente eksemplene er hvordan inkluderingen av et ekstra gen i musepopper - musevarianten av kopper - gjorde det mye mer livstruende og i stand til å smitte allerede vaksinerte individer. Nylig arbeid med fugleinfluensa har vist at smittsomheten av sykdommen kan økes målrettet.

For tiden er risikoen for at noen bevisst sprer en slags ondsinnet infeksjon ubetydelig. Imidlertid, ettersom bioteknologien forbedres og blir billigere, vil flere og flere grupper kunne gjøre sykdommen enda farligere.

Det meste av arbeidet innen biologiske våpen utføres av stater som ønsker å få noe kontrollert, siden ødeleggelsen av menneskeheten ikke er militært nyttig. Imidlertid vil det alltid være mennesker som kommer inn for å gjøre noen ting bare fordi de er i stand til å gjøre det. Andre kan ha mer høye mål.

For eksempel prøvde medlemmer av den religiøse gruppen Aum Shinrikyo å akselerere apokalypsen ved bruk av biologiske våpen, ikke bare gjennom deres mer vellykkede angrep med nervegass. Noen mennesker tror at situasjonen på jorden vil bli bedre hvis det ikke er flere mennesker på den, og så videre.

Antall dødsfall som følge av bruk av biologiske våpen og epidemiske sykdommer får en til å tenke at de utvikler seg i henhold til en maktlov - i et stort antall tilfeller er det få ofre, men i et lite antall tilfeller er det mange ofre. Gitt de tilgjengelige dataene, ser det ut til at risikoen for en global pandemi fra bioterrorisme er liten.

Men dette gjelder bare bioterrorisme: regjeringer ved hjelp av biologiske våpen drepte betydelig flere enn bioterrorister (omtrent 400 tusen mennesker ble ofre for det japanske biologiske krigføringsprogrammet under andre verdenskrig). Teknologi blir kraftigere, og det vil derfor være lettere å skape enda flere patogener i fremtiden.

3. Superintelligens

Intelligens er kraftig. Den marginale økningen i problemløsing og gruppekoordinering er årsaken til at resten av apeartene er uten arbeid. For tiden avhenger deres eksistens av beslutningene som er tatt av personen, og ikke av hva de gjør.

Image
Image

Å være smart er virkelig fortreffelighet for mennesker og organisasjoner, og det går derfor mye arbeid i å forbedre vår individuelle og kollektive intelligens, fra medisiner til å forbedre kognitive evner til å utvikle programmer relatert til kunstig intelligens.

Problemet er at intelligente systemer fungerer godt når de når målene sine, men hvis disse målene er dårlig definert, har de muligheten til å bruke sin kraft til å oppnå sine katastrofale mål på en smart måte. Det er ingen grunn til å tro at intellektet i seg selv er i stand til å få noe eller noen til å handle riktig og moralsk. Faktisk er det muligheten for at noen typer superintelligente systemer vil trosse moralske regler selv om de var mulige.

Enda mer urolig er det faktum at når vi prøver å forklare ting for kunstig intelligens, står vi overfor dype praktiske og filosofiske problemer. Menneskelige verdier er vage, komplekse spørsmål som vi ennå ikke kan definere godt, og selv om vi kunne, forstår vi kanskje ikke de fulle implikasjonene av det vi prøver å skape.

Programvarebasert intelligens kan lukke gapet med mennesker veldig raskt, og maskinens evner kan bli farlige. Problemet er at kunstig intelligens på forskjellige måter kan forholde seg til biologisk intelligens: den kan kjøre raskere på raskere datamaskiner, deler av den kan plasseres på flere datamaskiner, noen versjoner av den kan testes og oppdateres på farten, og det er en mulighet for å innføre nye algoritmer som dramatisk kan øke ytelsen.

I dag antar mange at et "gjennombrudd i intelligens" er sannsynlig hvis programmene i seg selv har tilstrekkelig kapasitet til å produsere bedre programmer. Hvis denne typen sprang inntreffer, vil det være stor forskjell mellom det smarte systemet (eller folket som forteller det hva de skal gjøre) og resten av verden. En slik situasjon kan meget vel føre til katastrofe hvis målene ikke er satt riktig.

Det uvanlige med superintelligens er at vi ikke vet om et raskt og kraftig gjennombrudd er mulig i utviklingen av intelligens: kanskje vår nåværende sivilisasjon som helhet forbedrer seg selv i høyeste hastighet. Imidlertid er det tilstrekkelig grunn til å tro at noen teknologier er i stand til å bevege visse ting fremover mye raskere enn mulighetene for å forbedre deres kontroll av det moderne samfunnet.

I tillegg er vi foreløpig ikke i stand til å forstå hvor farlig noen former for superintelligens kan være og hvordan avbøtningsstrategier vil fungere. Det er veldig vanskelig å spekulere i fremtidige teknologier som vi ikke har ennå, eller intelligens som overgår det vi har. Blant de oppførte risikoene er det nettopp dette som har størst sjanse til å bli enten virkelig storskala eller forbli bare en mirage.

Generelt har dette området ennå ikke blitt studert tilstrekkelig, noe som er overraskende. Selv på 1950- og 1960-tallet var folk helt overbevist om at superintelligens kunne opprettes "i løpet av en generasjon", men på den tiden ble ikke sikkerhetsspørsmål gitt den rette oppmerksomhet. Kanskje folk da bare ikke tok sine spådommer på alvor, og mest sannsynlig anså det som et problem i en fjern fremtid.

4. Nanoteknologi

Nanoteknologi handler om å kontrollere materie med atom- eller molekylær presisjon. I seg selv er det ikke farlig, og tvert imot kan det være veldig gode nyheter for mange bruksområder. Problemet er at voksende muligheter, som i bioteknologi, også øker potensialet for misbruk, noe som er veldig vanskelig å forsvare seg mot.

Image
Image

Det store problemet er ikke den beryktede "grå gooen" av selvrepliserende nanomaskiner som fortærer alt. Dette vil kreve oppretting av svært sofistikerte enheter. Det er vanskelig å lage en maskin som kan reprodusere seg selv: biologi er per definisjon bedre på denne typen oppgaver. Kanskje noen galninger vil være i stand til å gjøre dette, men det er mer tilgjengelige frukter på treet med destruktive teknologier.

Den mest åpenbare risikoen er at automatisk presisjonsproduksjon ser ut til å være ideell for billig produksjon av ting som våpen. I en verden der mange regjeringer vil ha muligheten til å "trykke" et stort antall autonome eller semi-autonome våpensystemer (inkludert muligheten for å øke produksjonen), kan våpenkappløpet bli veldig intenst - og resultatet er økt ustabilitet, og derfor kan det være veldig fristende å starte en første streik. til det øyeblikket fienden får en stor fordel.

Våpen kan også være veldig små i størrelse og veldig nøyaktige: de kan være "smart gift" som ikke bare kan fungere som nervegass, men også velge sine ofre, eller allestedsnærværende mikroroboter (gnatbots), miniatyrovervåkningssystemer for å holde befolkningen lydig - alt dette er fullt mulig. I tillegg kan atomvåpen og installasjoner som påvirker klimaet falle i hendene på inntrengere.

Vi kan ikke estimere sannsynligheten for eksistensiell risiko fra fremtidig nanoteknologi, men tilsynelatende kan de være ganske destruktive bare fordi de er i stand til å gi hva vi vil.

5. Mystisk ukjent

Den mest alarmerende muligheten er at det er noe dødelig i verden, men vi vet ikke hva det er.

Image
Image

Stillhet i himmelen kan være et bevis på dette. Er fraværet av romvesener på grunn av at liv og intelligens er veldig sjeldne, eller fordi smart liv har en tendens til å bli ødelagt? Hvis det er et fremtidig stort filter, burde andre sivilisasjoner ha lagt merke til det, men selv det hjalp ikke.

Uansett en slik trussel, ville det være nesten uunngåelig selv om du var klar over dets eksistens, uavhengig av hvem du er eller hva du egentlig er. Vi vet ikke noe om denne typen trusler (ingen av de ovennevnte truslene fungerer på denne måten), men de kan eksistere.

Merk at tilstedeværelsen av noe ukjent ikke betyr at vi ikke kan resonnere om det. En artikkel av Max Tegmark og Nick Bostrom viser at et gitt sett med risiko bør ha et forhold på mindre enn en av en milliard per år, basert på jordens relative alder.

Det kan overraske deg at klimaendringer og meteorpåvirkninger ikke er på denne listen. Klimaendringer, fryktelig som de er, vil neppe gjøre hele planeten ubeboelig (men det kan utgjøre flere trusler hvis forsvaret vårt viser seg å være ineffektivt). Meteorer kan selvfølgelig tørke oss av jordens overflate, men i dette tilfellet må vi være veldig store tapere.

Vanligvis har en bestemt type pattedyr eksistert i omtrent en million år. Dermed er den viktigste naturlige utryddelsesgraden omtrent én av en million per år. Dette er betydelig lavere enn risikoen for en atomkrig, som 70 år senere fortsatt er den største trusselen mot vår fortsatte eksistens.

Tilgjengelighetsheuristikker tvinger oss til å overvurdere risikoer som ofte blir diskutert i media og bagatellisere de risikoene som menneskeheten ennå ikke har møtt. Hvis vi vil fortsette å eksistere selv etter en million år, må vi rette opp denne situasjonen.

Anders Sandberg

Populærvitenskap

Anbefalt: