Vil De “tre Lovene I Robotikk” Beskytte Oss? - Alternativ Visning

Innholdsfortegnelse:

Vil De “tre Lovene I Robotikk” Beskytte Oss? - Alternativ Visning
Vil De “tre Lovene I Robotikk” Beskytte Oss? - Alternativ Visning

Video: Vil De “tre Lovene I Robotikk” Beskytte Oss? - Alternativ Visning

Video: Vil De “tre Lovene I Robotikk” Beskytte Oss? - Alternativ Visning
Video: Электровелосипед для путешествий El-Future NANO 2.0 2024, April
Anonim

Det har gått 50 år siden Isaac Asimov kom med sine berømte Three Laws of Robotics - et sett med regler som enhver selvrespekt robot må følge. Selv om det opprinnelig bare var et litterært apparat, ble de tre lovene den opprinnelige oppskriften for å unngå "robotokalypsen". Heldigvis er det eksperter som leter etter visse om Azimovs garantier har stått tidens prøve. Dessverre sier de alle nei.

Til å begynne med, la oss huske de samme tre lovene:

En robot kan ikke skade en person, eller ved sin passivitet tillate en person å bli skadet.

En robot må overholde alle ordre gitt av et menneske, bortsett fra når disse ordrene er i strid med den første loven.

Roboten må ta vare på sikkerheten sin i den grad den ikke er i strid med første og andre lov.

Senere la Azimov til en fjerde eller null lov som gikk foran de andre når det gjelder prioritering:

Salgsfremmende video:

0. En robot kan ikke skade en person, med mindre den kan bevise at den til slutt vil være gunstig for hele menneskeheten.

Image
Image

I fantasyuniverset til Asimov måtte nesten alle roboter følge disse lovene. Dette var ikke bare forslag eller retningslinjer - lover ble innebygd i programvaren. I tillegg kan disse reglene ikke omgås, skrives om eller revideres.

Som Asimov selv viste, førte ofte ufullkommenheter, smutthull og uklarheter i disse lovene til rare og ulogiske oppførsel fra roboter. Lovene var for vage og klarte ofte ikke å definere og skille "mennesker" fra "roboter." I tillegg kunne roboter ubevisst bryte lover hvis full informasjon ikke var tilgjengelig for dem. En altfor utspekulert robot eller kunstig intelligens måtte være under press for ikke å omprogrammere kjernen.

Året er 2014, og mye av det vanlige fra livene våre til fantasiene fra forrige århundre kan virke direkte fantasi. Mange mennesker mente at Asimovs lover burde vært som et litterært instrument. Men Azimov bemerket selv i 1981 at lovene hans kunne fungere. Compute! han antydet følgende:

“Når noen spør meg hvordan det ville være om de tre lovene mine innen robotikk faktisk ble brukt for å definere oppførselen til roboter, er svaret klart. Forutsatt selvfølgelig at roboter er fleksible og allsidige nok til å utvise ulik oppførsel. Svaret mitt er ja, de tre lovene er den eneste måten mennesker kan samhandle med roboter - eller noe annet.

Nesten tretti år senere har vi kommet nærmere en virkelighet der vi vil ha roboter - eller mer presist, den kunstige intelligensen som kontrollerer dem - fleksible og allsidige nok for forskjellige oppførselsforløp. Det gjenstår bare et spørsmål om tid: når maskinen overgår mennesket på alle måter, fra fysisk styrke til fantasiens kraft.

Det skremmende er at det praktisk talt ikke er noen margin for feil. Hvis kunstig superintelligens er dårlig programmert eller likegyldig for mennesker, vil det føre til katastrofe. Vi må sørge for at kunstig intelligens er trygg hvis vi ønsker å overleve dens fremvekst."

Svar på spørsmålet "kan Azimovs tre lover hjelpe?" To teoretikere av kunstig intelligens overtok: Ben Herzel (Aidyia Holdings) og Louis Helm, visedirektør for Machine Intelligence Research Institute (MIRI) og utøvende redaktør av Rockstar Research magazine. Etter å ha snakket med dem, ble det klart at Asimovs lover generelt ikke kunne takle oppgaven som ble tildelt dem, og hvis vi trenger å lage en sikker AI, må vi utvikle noe helt annet.

Asims fremtid?

Image
Image

Samtalen med Herzel og Helm begynte med det Asimov ikke tok feil av, spådde fremtiden, og hvor han tok feil.

"Jeg tror den typen roboter som Asimov så for seg vil være mulig i ikke så fjern fremtid," svarer Herzel. - I de fleste av sine fiktive verdener antok imidlertid forfatteren at humanoide roboter ville være toppen av robotikk og kunstig intelligens. Det er usannsynlig. Veldig snart, etter å ha nådd status som Azimov-roboter, vil opprettelsen av kunstig superintelligens og superroboter bli tilgjengelig."

Dermed vil den typiske fremtidens verden i Asimovs historier om roboter, ifølge Herzel, være den som vi lever i dag, men med intelligente roboter som går i gatene.

"Det er lite sannsynlig at dette vil skje, og hvis det skjer, vil det ikke bli forsinket på lenge."

For Helm ser robotene ut til å være helt forskjellige.

”Hovedspørsmålet, som etter min mening vil være det viktigste for menneskeheten, er fortsatt ikke den moralske reguleringen av et gigantisk antall halvintelligente humanoider, men til slutt utviklingen av avanserte former for kunstig intelligens (i ethvert organ). Denne utviklingen av superintelligens er et filter som menneskeheten må passere til slutt. Dette er grunnen til å utvikle en sikkerhetsstrategi for denne overgangen er så viktig. Det virker helt rart for meg at roboter, androider eller "emuleringer" vil eksistere i ti år eller litt mer til menneskeheten blir møtt med det virkelige problemet med å utvikle maskinetikk for superintelligens."

En god start?

Image
Image

Tatt i betraktning at de tre Asimov Laws of Robotics var det første oppriktige forsøket på å løse et veldig alvorlig problem - problemet med sikker oppførsel av maskiner med kunstig superintelligens - er det verdt å se etter de øyeblikkene hvor lovene fremdeles kan være effektive (eller i det minste inspirerende).

"For å være ærlig, finner jeg ingen inspirasjon i disse tre lovene om robotikk," sier Helm. - Essensen av maskinetikk er at de ikke tilfredsstiller grunnlaget for maskinetikk. Kanskje er de tre lovene innen robotikk kjent, men i virkeligheten er det ubrukelig å bruke dem som grunnlag for programmering."

“Av en eller annen grunn har et system for god etikk - kalt deontologi - blitt et upålitelig grunnlag for etikk. Det er en rekke filosofer som prøver å fikse deontologiproblemene, men de er for det meste de samme menneskene som søker "intelligent design" og "guddommelig inngripen." Ingen tar dem på alvor."

Ulempene med Asimovs tre lover for robotikk koker ned til følgende:

Motstridende natur

Basert på en foreldet etisk teori (deontologi)

Arbeid ikke engang i skjønnlitteratur

Herzel er enig:

“Hensikten med de tre lovene var å bryte dem på en interessant måte; Derfor er historiene deres spesielt underholdende. Derfor kan de tre lovene forbli bare et moralsk eksempel på hvordan man ikke gjør det. Hvis vi tar dem som grunnlag, vil det uunngåelig være smutthull i dem”.

Herzel mener at disse lovene i virkeligheten ikke vil fungere, siden vilkårene for deres deltakelse er tvetydige og forblir gjenstand for tolkning - noe som betyr at de er ekstremt avhengige av dem som gjør oversettelsene.

Fordommer mot roboter?

Et annet aspekt (og potensiell feil) ved de tre lovene i tilsynelatende chauvinisme er antakelsen om at roboter skal forbli, til tross for sin overlegne makt, underordnet mennesker, menneskelige behov og prioriteringer.

”Azimovs fremtidssamfunn består utelukkende av chauvinister: mennesker har mye mer rettigheter enn roboter. De tre lovene innen robotikk ble opprettet for å opprettholde akkurat en slik sosial orden."

Image
Image

Helm ser på dette problemet litt annerledes og hevder at hvis vi befinner oss i en slik situasjon, vil det i seg selv være et bevis på at vi har gått for langt.

”Jeg tror det ville være uklokt å designe et kunstig intelligenssystem eller en selvbevisst robot. Og i motsetning til filmer eller bøker der skaperne av kunstig intelligens "ved et uhell" kommer til intelligente maskiner, tror jeg ikke at dette kan skje i det virkelige liv. Dette vil ta for mye krefter og kunnskap. Og de fleste AI-designere er etisk kyndige mennesker, så de vil unngå å skape det filosofer kaller "moralsk betydningsfulle vesener." Spesielt når de enkelt kan lage en avansert maskin som ikke har etiske tilbøyeligheter."

Helm er ikke bekymret for behovet for å utvikle asymmetriske lover for å styre verdien av roboter over mennesker, og hevder (og håper) at fremtidens kunstige intelligensskapere vil stole på noen etiske begrensninger.

”Jeg tror slags mennesker er laget av atomer, så i teorien kan en ingeniør skape en syntetisk livsform eller en robot med en moralsk betydning. Jeg vil gjerne tro at ingen vil gjøre dette. Jeg tror de fleste gjør det også. Men uunngåelig vil det være en tosk som vil bli kjent som en pioner, selv om den er uetisk og dum."

Three Laws of Robotics 2.0?

Gitt de åpenbare manglene i Asimovs tre lover for robotikk, stilte ressursen io9 spørsmålet: kan de rettes eller forbedres? Faktisk har mange science fiction-forfattere prøvd dette mange ganger, og finjustert det gjennom årene.

"Nei," sier Helm. "Det er ingen oppdateringer for de tre lovene."

Foruten deres motstridende natur, er lover også motstridende.

"Jeg er en talsmann for maskinetiske tilnærminger som er mer samarbeidsvillige, mer konsistente og mer normative, noe som betyr at de kan komme seg etter misforståelser eller rette feil programmering."

Herzel gjentar Helms påstander.

Å definere et sett etiske ord som kjernen i maskinetikk vil være håpløst hvis maskinen er basert på fleksibel generell kunstig intelligens. Hvis det blir tenkt som intuitivt, fleksibelt, tilpasningsdyktig eller etisk - i denne sammenhengen vil etiske forutsetninger være nyttige for systemet bare som en grov retningslinje for anvendelsen av sin egen etiske intuisjon. Men i dette tilfellet vil ikke budene være grunnlaget for det etiske systemet, men bare et aspekt. Dette kan sees i menneskelige eksempler - de etiske prinsippene vi studerer fungerer, men ikke som retningslinjer, de bare skyver intuisjonen og de etiske instinktene våre. Vi er praktisk talt uavhengige av etiske prinsipper."

Hvordan skape sikker kunstig intelligens?

Gitt mangelen på den juridiske tilnærmingen, kan du spørre Gertzel og Helm om moderne tilnærminger til problemet med "sikker AI".

"Svært få generelle forskere på kunstig intelligens mener at det er mulig å lage et system som er helt sikkert," sier Herzel. "Men dette plager ikke flertallet, siden ingenting kan garanteres i dette livet i det hele tatt."

Herzel mener at når vi oppretter et generelt system for kunstig intelligens eller embryoet, kan vi utføre forskning og eksperimenter som vil fortelle oss mye mer om AIs etikk enn vi vet.

”Forhåpentligvis kan vi på denne måten formulere gode teorier om etikken til kunstig intelligens som lar oss dykke dypere i dette emnet. Men nå er det ganske vanskelig å teoretisere om etikken til AI, siden vi ikke bare har gode teorier, vi har ingen teorier i det hele tatt."

"Og for mennesker som har sett for mange terminatorer, kan prosessen med å lage kunstig intelligens virke skremmende, siden de savner ordet" primitiv "i denne sammenhengen. De mest radikale endringene skjedde imidlertid på denne måten."

"Når en gruppe intelligente hulemenn oppfant språk, forventet de ikke utvikling av en solid formell teori om språk som kunne bidra til å forutsi fremtidige endringer forårsaket av fremveksten av språk i samfunnet."

Før du vurderer utviklingen av de neste "tre lovene" som et teknisk problem, må du gjøre mye research. Og det er her Helm og Herzel er enige.

“Min kollega fra MIRI Luc Muelhauser oppsummerte resonnementet vårt som følger. Han sa at problemer ofte går fra filosofi til matematikk og deretter til ingeniørfag. Filosofi blir ofte stilt de riktige spørsmålene, men på den mest upraktiske måten. Ingen kan si sikkert om det har vært noen fremgang med å løse problemet. Hvis vi kan omformulere de viktige filosofiske problemene med fornuft, identifikasjon og verdi til presise formler som en matematiker kan håndtere, kan en eller annen modell bygges. En fin dag kommer det til prosjektering."

Helm synes dette problemet er vanskelig for vitenskap og filosofi, men fremgang er mulig.

“Jeg er skeptisk til at filosofi vil kunne løse et problem som har slitt i mer enn 3000 år. Men vi kan heller ikke ta og begynne å lage matematiske modeller av spørsmål som ikke er teknisk tilstede. Vi trenger fortsatt mye teoretisk og til og med praktisk utvikling."

Anbefalt: