Rocos Basilisk: Det Mest Skremmende Tankeeksperimentet Noensinne - Alternativ Visning

Rocos Basilisk: Det Mest Skremmende Tankeeksperimentet Noensinne - Alternativ Visning
Rocos Basilisk: Det Mest Skremmende Tankeeksperimentet Noensinne - Alternativ Visning

Video: Rocos Basilisk: Det Mest Skremmende Tankeeksperimentet Noensinne - Alternativ Visning

Video: Rocos Basilisk: Det Mest Skremmende Tankeeksperimentet Noensinne - Alternativ Visning
Video: Roko Basilisk 2024, Kan
Anonim

Basilisk Roco er en gudlignende form for kunstig intelligens, farlig nok til at hvis du bare tenker på det, vil du tilbringe resten av dagene dine i grufull tortur. Det ser ut som en kassett fra filmen "The Ring". Selv død vil imidlertid ikke være en befrielse, fordi Rocos Basilisk vil gjenoppstå deg og fortsette sin tortur. T&P presenterer en oversettelse av en artikkel om en av de merkeligste legendene generert på Internett.

ADVARSEL: Etter å ha lest denne artikkelen, kan du fordømme deg selv til evig lidelse og pine.

Rocos Basilisk dukket opp i krysset mellom et filosofisk tankeeksperiment og urban legende. Den første omtale av ham dukket opp på diskusjonsgruppen Less Wrong, som samler folk som er interessert i å optimalisere tenking og liv gjennom prisme i matematikk og rasjonalitet. Skaperne er betydningsfulle skikkelser innen tekno-futurisme, og blant prestasjonene til forskningsinstituttet bidrar de til den faglige debatten om teknologisk etikk og beslutningsteori. Imidlertid kan det du skal lese nå virke rart og til og med sprøtt. Til tross for dette tror veldig innflytelsesrike og velstående forskere på dette.

En dag la en bruker ved navn Roko følgende tankeeksperiment ut: Hva om det i fremtiden dukker opp en ondsinnet kunstig intelligens som ønsker å straffe dem som ikke følger ordrene? Og hva hvis han vil straffe de menneskene som tidligere ikke bidro til skapelsen hans? Ville mindre gale lesere da hjelpe den onde AI til å bli til, eller ville de være dømt til evig pine?

Mindre galt grunnlegger Eliezer Yudkowski tok Rokos uttalelse med sinne. Dette svarte han til ham: «Du må være smart hvis du kom til denne ideen. Imidlertid trist det meg at folk som er smarte nok til å forestille seg en slik ting, ikke er smarte nok til å holde deres dumme tunge etter teet og ikke fortelle noen om det, fordi dette er viktigere enn å vise deg smart, fortelle alle vennene dine om det …

"Hva om det i fremtiden er en kunstig intelligens som ønsker å straffe dem som ikke følger dens ordre?"

Yudkowski innrømmet at Roko var ansvarlig for marerittene til Mindre gale brukere som hadde lest tråden, og slettet den, noe som gjorde Roko Basilisk legendarisk. Dette tankeeksperimentet ble så farlig at det å tenke på det truet brukerens mentale helse.

Hva gjør Mindre galt? Dannelse av begrepet menneskehetens fremtid basert på singulariteten. De tror at datakraft i fremtiden vil bli så høy at kunstig intelligens kan skapes ved hjelp av en datamaskin - og med den evnen til å laste opp menneskelig bevissthet til en harddisk. Begrepet "singularitet" oppsto i 1958 under en diskusjon mellom to genier i matematikk - Stanislav Ulam og John von Neumann, da Neumann sa: "Teknologiens konstant akselererende fremgang vil gjøre det mulig å nærme seg en singularitet, der teknologi ikke kan forstås av mennesker." Futurister og science fiction-forfattere som Vernor Vinge og Raymond Kurzweil populariserte begrepet fordi de trodde at Singularity ventet på oss alle veldig snart - i løpet av de neste 50 årene. Mens Kurzweil forbereder seg på singularitetenYudkowski har store forhåpninger for kryonikk: "Hvis du ikke registrerte barna dine for kryokonservering på forhånd, er du elendige foreldre."

Salgsfremmende video:

Hvis du tror at en singularitet kommer og at kraftige AI-er vil dukke opp i løpet av en nær fremtid, oppstår et naturlig spørsmål: vil de være vennlige eller onde? Yudkowski Foundation har som mål å lede utviklingen av teknologi på en slik måte at vi har nøyaktig vennlig kunstig intelligens. Dette spørsmålet er av største betydning for ham og for mange andre. Singulariteten vil føre oss til en maskin som tilsvarer gud.

Dette forklarer imidlertid ikke hvorfor Rocos basilisk ser så forferdelig ut i øynene til disse menneskene. Spørsmålet krever en titt på Less Wrongs viktigste "dogme" - "Timeless Decision Theory" (HTDM). VPPR er en guide til rasjonell handling, basert på spillteori, Bayesisk sannsynlighet og beslutningsteori, men med parallelle universer og kvantemekanikk i tankene. VTPR vokste ut av et klassisk tankeeksperiment, Newcomb Paradox, der en romvesen med superintelligens tilbyr deg to bokser. Han gir deg et valg: enten ta begge boksene, eller bare boks B. Hvis du velger begge deler, er du garantert å motta tusenlapper. Hvis du bare tar boks B, får du kanskje ikke noe. Alien har imidlertid enda et triks i vente: han har en allvitende superdatamaskin som gjorde en spådom for en uke siden,Enten du tar begge boksene eller bare B. Hvis datamaskinen spådde at du ville ta begge boksene, ville romvesenet forlatt den andre tom. Hvis datamaskinen spådde at du ville velge boks B, ville den plassert en million dollar der inne.

Så hva har du tenkt til å gjøre? Husk at superdatamaskinen er allvitende.

Dette problemet har forvirret mange teoretikere. Alien kan ikke lenger endre innholdet i boksene. Den tryggeste måten er å ta begge boksene og få tusen. Men hva hvis datamaskinen egentlig er allvitende? Så er alt du trenger å gjøre å ta boks B for å få en million. Men hvis han viser seg å være feil? Og uansett hva datamaskinen spådde, er det virkelig ingen måte å endre skjebnen din? Så, forbannet, du må ta begge boksene. Men i så fall …

Det vanvittige paradokset som tvinger oss til å velge mellom fri vilje og guddommelig prediksjon har ingen oppløsning, og folk kan bare trekke skuldrene og velge alternativet som er mest behagelig for dem. WTPR gir råd: ta boks B. Selv om fremmede bestemte seg for å le av deg og åpne en tom boks med ordene: "Datamaskinen spådde at du vil ta begge boksene, ha ha!" - du må fremdeles velge det. Begrunnelsen for dette er som følger: for å kunne gjøre en prediksjon, måtte datamaskinen simulere hele universet, inkludert deg. Dermed, i dette øyeblikket, når du står foran boksene, kan du bare være en simulering av datamaskinen, men hva du gjør vil påvirke virkeligheten (eller virkeligheten). Så ta boks B og få en million.

"Det vanvittige paradokset som tvinger oss til å velge mellom fri vilje og guddommelig prediksjon har ingen oppløsning."

Hva har dette med Basilisk Roco å gjøre? Vel, han har et par esker til deg også. Kanskje er du akkurat nå i en simulering opprettet av Basilisk. Da får vi kanskje en litt modifisert versjon av Newcombs paradoks: Basilisk Roco forteller deg at hvis du tar boks B, vil du lide evig pine. Hvis du tar begge boksene, vil du bli tvunget til å vie livet ditt til opprettelsen av basilisken. Hvis basilisken faktisk eksisterer (eller det er verre at han allerede eksisterer og er guden til denne virkeligheten), vil han se at du ikke valgte alternativet å hjelpe til med å opprette det og vil straffe deg.

Du lurer kanskje på hvorfor dette spørsmålet er så viktig for Mindre galt, gitt konvensjonen om dette tankeeksperimentet. Det er ikke et faktum at Rockos Basilisk noen gang vil bli opprettet. Yudkowski fjernet imidlertid referanser til Rokos basilisk ikke fordi han tror på dens eksistens eller en forestående oppfinnelse, men fordi han anser ideen om en basilisk som farlig for menneskeheten.

Som sådan er Rockos Basilisk bare farlig for de som tror på den - som et resultat har medlemmene av Less Wrong som støtter Basilisk-ideen en slags forbudt kunnskap, som minner oss om Lovecrafts skumle historier om Cthulhu eller Necronomicon. Med mindre du abonnerer på alle disse teoriene og føler deg fristet til å adlyde en lumsk maskin fra fremtiden, utgjør Rocos Basilisk ingen trussel for deg.

Jeg er mer bekymret for mennesker som tror de har steget over konvensjonelle moralske standarder. I likhet med Yudkowskis forventede vennlige AI, er han selv en utilitaristisk: han mener at det største godet for hele menneskeheten er etisk rettferdiggjort, selv om flere mennesker må dø eller lide på vei til det. Ikke alle kan møte et slikt valg, men poenget er annerledes: hva om en journalist skriver om et tankeeksperiment som kan ødelegge menneskers bevissthet og derved skade menneskeheten og hindre fremskritt i utviklingen av kunstig intelligens og singulariteten? I dette tilfellet må alt godt som jeg har gjort i livet mitt oppveie skadene jeg har gjort for verden. Eller, kanskje, fremtidens Yudkowski, som reiste seg fra kryogen søvn, slo seg sammen med singulariteten og bestemte meg for å simulere meg i følgende situasjon:den første boksen - Jeg vil skrive denne artikkelen, den andre - nei. Vær så snill, allmektige Yudkowski, ikke såre meg.

Anbefalt: