10 Skremmende Fremtidige Teknologier Vi Bedre Kan Dike - Alternativt Syn

Innholdsfortegnelse:

10 Skremmende Fremtidige Teknologier Vi Bedre Kan Dike - Alternativt Syn
10 Skremmende Fremtidige Teknologier Vi Bedre Kan Dike - Alternativt Syn

Video: 10 Skremmende Fremtidige Teknologier Vi Bedre Kan Dike - Alternativt Syn

Video: 10 Skremmende Fremtidige Teknologier Vi Bedre Kan Dike - Alternativt Syn
Video: WW2 - OverSimplified (Part 1) 2024, Kan
Anonim

Jo dypere vi stuper inn i det 21. århundre, desto tydeligere kommer de fantastiske mulighetene som åpnes foran oss. Og jo tydeligere opplever vi mørke følelser når vi tenker på dem. Her er ti skumle teknologier som aldri hadde eksistert. Når du blir kjent med dem, vil det bli tydelig at mange av disse teknologiene kan brukes godt. Men det er viktig å trekke en skillelinje mellom teknologien som sådan og hvordan den kan brukes.

Ta for eksempel nanoteknologi. Etter hvert som de er utviklet, kan de brukes til å få slutt på pågående knapphet, rydde opp i miljøet og gjenskape menneskets biologi. Men de kan også brukes til å ødelegge planeten vår veldig raskt. Så når tiden kommer til å utvikle og bruke disse futuristiske teknologiene, må vi nærme oss det ansvarlig. Kanskje vi vil komme til den konklusjonen at en egen serie med teknologisk utvikling og risikoen forbundet med den ikke er verdt fordelene. For eksempel kunstig superintelligens.

Noen teknologier er objektivt farlige. Her er hva Patrick Lin, direktør for Ethics + Emerging Sciences Group ved California Polytechnic State University, sier:

“Tanken om at teknologien er nøytral eller ikke er relatert til moral, er en myte som må fjernes. En designer kan formidle etikk til en skapelse selv om objektet ikke har noe moralsk middel i seg selv. Denne funksjonen kan være for subtil i de fleste tilfeller, men noen teknologier er født av ondskap og har ingen gunstige bruksområder, for eksempel gasskamre. Videre, selv om teknologi i seg selv kan være god eller dårlig, vil alle være enige i at de fleste teknologier har både gode og dårlige bruksområder. Hvis sannsynligheten for at en teknologi blir brukt i ondskapens navn er høyere enn i det gode, er det kanskje ikke verdt å utvikle den teknologien."

Militær nanoteknologi

Knapt noe annet kan avslutte vår regjeringstid på Jorden raskere enn den militære - eller sterkt feil - molekylære nanoteknologien.

Denne trusselen stammer fra to ekstremt kraftige krefter: ukontrollert selvgjengivelse og eksponentiell vekst. En nihilistisk regjering, ikke-statlig agent eller privatperson kan utvikle mikroskopiske maskiner som forbruker kritiske ressurser på planeten vår i hastighet for ild (veldig raskt), mens de multipliserer i enormt antall og lar ubrukelige biprodukter være i deres vei - futurister kaller dette scenariet for "grå" slim."

Kampanjevideo:

Nanoteknologi-teoretikeren Robert Freitas har foreslått flere mulige scenarier for fremveksten av nanoteknologi som er ødeleggende for planeten, inkludert grå støv, grå plankton, grå lav og såkalte biomassedrapere. Grått støv vil dekke oss fra sollys; grå plankton vil bestå av havbunnsreplikatorer som vil mate på hele den terrestriske karbonrike økologien; grå lav vil ødelegge jordgeologi og biomassedrapere vil angripe en rekke organismer.

Ifølge Freitas vil det verste tilfellet av "global økofagi" ta omtrent 20 måneder, noe som vil være mer enn nok til å utforme et effektivt forsvar. Ved beskyttelse betyr Freitas mottiltak i form av selvreplikerende nanoteknologi eller et system som ikke er i stand til å lage nanoboters interne maskiner. Alternativt kan vi distribuere aktive skjold på forhånd, men de fleste nanoteknologiske eksperter er enige om at dette vil være ubrukelig. Derfor vil det være nødvendig å utvikle og opprettholde et moratorium for opprettelsen av militær nanoteknologi.

Intelligente maskiner

Når vi først presenterer maskiner med kunstig bevissthet, er dette allerede tatt for gitt. Men før vi går videre mot en slik fremtid, må vi tenke veldig seriøst. Det kan være for grusomt å bygge en funksjonell hjerne inne i en datamaskin - og dette gjelder både dyre- og menneskemuleringer.

Image
Image

Tilbake i 2003 hevdet filosofen Thomas Metzinger at det ville være uhyrlig uetisk å utvikle programvare som kan lide:

“Hva vil du si hvis noen kom og sa: 'Vi vil genetisk modifisere psykisk utviklingshemmede babyer! Av en eller annen grunn som tilfredsstiller vitenskapelig fremgang, trenger vi babyer med visse kognitive og emosjonelle funksjonshemninger for å studere deres psykologiske utvikling etter fødselen - vi trenger øyeblikkelig midler til denne viktige og innovative typen forskning! Du skulle tro at dette ikke bare er en absurd og tvilsom, men også en farlig idé. Ingen etikkommisjon i en demokratisk verden vil savne den. Nåværende etiske komiteer klarer imidlertid ikke å se at de første maskinene som oppfyller minimumsvilkårene for bevisst erfaring, kan være mentalt utviklingshemmede babyer. De kan lide av alle slags funksjonelle og representative underskudd. Og de vil subjektivt føle dette underskuddet. Dessuten,de vil ikke ha noen beskyttelse og ingen representasjon i etiske komiteer."

Futurolog Louis Helm er enig:

“Datamaskiner er spesielt gode fordi de kan telle summen av millioner av kolonner i en tabell og ikke bli lei eller lei. Siden vi planlegger å bruke kunstig intelligens som erstatning for mental arbeid, tror jeg det ville være umoralsk å lage intelligente programmer. Å fange et bevisst vesen i en maskin og få det til å fungere for deg er praktisk talt slaveri. Dessuten er bevissthet skjøre. Flere feilkodede gener hos mennesker kan forårsake Downs syndrom, schizofreni, autisme eller epilepsi. Hvordan føles det å ha en feil programmert form for bevissthet? For eksempel vil flere godt sponsede AI-utviklere ønske å gjenskape menneskets sinn i maskiner ved å etterligne den biologiske strukturen til den menneskelige hjerne. Jeg forventer og til og med litt håp om at disse første forsøkene på modellering vil være for grove,å virkelig brenne ut. Men hvis "vellykket", vil de første resultatene sannsynligvis generere en merkelig, ubehagelig og omskåret tilstand av subjektiv opplevelse. Som programmerer er jeg imot selvbevisst kunstig intelligens. Ikke fordi det ikke blir kult. Men fordi jeg er moralsk mot slaveri, tortur og dårlig kode."

Kunstig superintelligens

Som Stephen Hawking uttalte tidligere i år, kan kunstig intelligens være vår verste feil i historien. Vi har diskutert mange ganger at fremveksten av overmenneskelig intelligens kan være en katastrofe. Fremveksten av systemer som er mye raskere og smartere enn oss, vil kaste oss i bakgrunnen. Vi vil være prisgitt hva kunstig superintelligens vil - og det er ikke klart om vi vil være i stand til å skape en vennlig kunstig intelligens. Vi blir nødt til å løse dette problemet så raskt som mulig, ellers kan utviklingen av kunstig superintelligens avslutte menneskeheten.

Image
Image

Tidsreiser

Det er ikke det at jeg har stor tro på muligheten for tidsreiser (er vi ikke alle tidsreiser akkurat nå?), Men det skal ikke diskonteres. Videre må vi holde oss borte fra henne.

Image
Image

Tidsreiser kan være forbannet farlig. Enhver film om sammenfiltrede tidslinjer vil fortelle deg om potensielle farer, inkludert stygge paradokser. Og selv om en eller annen form for kvante-tidsreiser blir mulig - når helt nye og separate tidslinjer opprettes - vil kulturelle og teknologiske utvekslinger mellom forskjellige sivilisasjoner neppe ende.

Tankelesende enheter

Utsiktene til maskiner som kan lese folks tanker og minner på avstand eller ikke, med eller uten deres samtykke, gir bekymringer. Men dette er lite sannsynlig før den menneskelige hjerne blir tettere integrert med nettverket og andre kommunikasjonskanaler.

Image
Image

I fjor brukte for eksempel forskere i Nederland hjerneskanning og datalgoritmer for å bestemme hvilke bokstaver en person så på. Dette gjennombruddet viste evnen til å rekonstruere menneskelige tanker med et enestående detaljnivå av en tredjepart - inkludert det vi ser, hva vi tenker og hva vi husker. Hvis slike enheter faller inn i klørne til et totalitært regime eller en politistat, vil livet bli umulig og uutholdelig. Verden vil være som Orwellian, der selv forbrytelser begått i tanker vil bli straffet.

Hjernen hacking enheter

Det er en mulighet for at bevisstheten vår kan endres, sammen med vår kunnskap og minner. Når vi har fått sjetongene inn i hjernen og alle barrierer faller, vil bevisstheten vår være åpen for hele Internett og alt dets ondskap.

Image
Image

Vi har allerede tatt det første skrittet mot dette målet. Nylig startet en internasjonal gruppe nevrologer et eksperiment som gjør det mulig for deltakerne å kommunisere fra hjerne til hjerne via Internett. Kult, tenker du kanskje, men denne typen teknisk telepati åpner en hel Pandoras boks. En angriper kan være i stand til å endre offerets minner og intensjoner. Hva skjer hvis hele organisasjoner eller paranoide regjeringer får denne muligheten?

Autonome roboter for å ødelegge mennesker

Potensialet for autonome maskiner for å drepe mennesker skremmer alle - og dette er sannsynligvis det første punktet på agendaen som begynner å kjempe.

Image
Image

Futuristen Michael Latorra sier:

”Vi har ennå ikke maskiner som har en generell intelligens nær det menneskelige nivået. Men menneskelig intelligens er ikke nødvendig for operasjoner av autonome roboter med dødelige evner. Byggingen av alle slags robotmilitære kjøretøy er allerede i full gang. Tankroboter, fly, skip, ubåter, robotsoldater - alt dette er mulig i dag. I motsetning til fjernstyrte droner, kan militære roboter identifisere mål og ødelegge dem uten at et menneske peker og beordrer å skyte. Farene ved slik teknologi bør være åpenbare, men bør ikke være begrenset til trusselen om "vennlig brann", når roboter ved et uhell dreper mennesker på deres side av konflikten eller til og med uskyldige borgere. Hvor lurer den større faren i det internasjonale våpenkappløpet som kan utfolde seg,hvis noe land begynner å bygge autonome kamproboter. Etter flere forbedringssykluser kan løpet om å skape enda kraftigere militære roboter krysse terskelen der den siste generasjonen av autonome roboter kan overvinne ethvert menneskekontrollert militært system. Og da, ved et uhell eller bevisst, kan menneskeheten sette seg i en forferdelig posisjon, bli knust av ofrene for kamproboter."

Bekjemp patogener

Dette er et annet tema som bekymrer mange. I 2005 bemerket Ray Kurzweil og Bill Joy at å publisere genomene til dødelige virus for hele verden ville være en morderoppskrift. Det vil alltid være en idiot eller en haug med fanatikere som tar denne informasjonen i bruk og enten rekonstruerer viruset fra bunnen av, eller endrer eksisterende virus, gjør dem enda farligere, og deretter slipper dem ut i verden. Det er for eksempel beregnet at en modifisert fugleinfluensa kan utslette halvparten av verdens befolkning. Og forskere fra Kina har fullstendig kombinert fugle- og svineinfluensa, og skapt en ekte mutant. Målet deres var selvfølgelig å forstå, gjenkjenne fienden og utvikle mulige mottiltak før en reell pandemi brøt ut. Men det er alltid en fare for at viruset vil unnslippe fra laboratoriet og forårsake kaos blant mennesker. Eller at de skulle ta ham i bruk og slippe ham ut av kjeden.

Image
Image

Det er på tide å tenke på denne dystre muligheten før noe forferdelig skjer.

Virtuelle fengsler og tortur

Hvordan vil tortur og fengsler være hvis folk kan leve i hundrevis eller tusen år? Hva vil skje med fangene hvis deres sinn blir lastet inn i den virtuelle verden? Etikeren Rebecca Roach undersøker disse fryktelige scenariene:

Image
Image

”Fordelene ved udødelighet er åpenbare - men sammen med den kan straffen øke. Hvis tretti års fengsel betraktes som for mild straff, kan lovbryteren få livstidsdom, med tanke på økt levealder. En livstid vil for eksempel bli flere hundre år. Det kan sant være dyrere for samfunnet å støtte slike kriminelle. Men hvis økt forventet levealder blir allestedsnærværende, vil hundreåringer utvilsomt bidra i form av lang levetid.

Å laste ned bevisstheten til personen som begikk forbrytelsen og akselerere den en million ganger, vil tillate ham å "utarbeide" en forbrytelse med en straff på 1000 år på åtte og en halv time. Det vil være billigere enn å holde en kriminell med skattebetalernes penger i de samme 1000 årene. Denne konsentrerte straffen kan følges av rehabilitering, også i flere timer."

Dette er forferdelig. Vi håper menneskeheten ikke vil godta dette.

Skaper helvete

Dette alternativet ligner på det forrige. Noen futurister ser for seg skapelsen av paradis - bruk av avansert teknologi, inkludert opplasting av bevissthet og virtuell virkelighet, som vil gjøre jorden til et paradis. Men hvis du kan skape himmelen, kan du skape helvete. Dette utsiktene er spesielt skremmende når du vurderer den ubestemte forventede levealderen, samt de nesten ubegrensede mulighetene for psykologisk og fysisk straff. Det er vanskelig å forestille seg at noen i prinsippet vil utvikle noe slikt. Men at noen kan være kunstig superintelligens. Husker du Basilisk Roco-problemet?

Image
Image

ILYA KHEL

Anbefalt: