Når Vil Roboter Og Kunstig Intelligens Fortjene Menneskerettigheter? - Alternativt Syn

Innholdsfortegnelse:

Når Vil Roboter Og Kunstig Intelligens Fortjene Menneskerettigheter? - Alternativt Syn
Når Vil Roboter Og Kunstig Intelligens Fortjene Menneskerettigheter? - Alternativt Syn

Video: Når Vil Roboter Og Kunstig Intelligens Fortjene Menneskerettigheter? - Alternativt Syn

Video: Når Vil Roboter Og Kunstig Intelligens Fortjene Menneskerettigheter? - Alternativt Syn
Video: Kunstig Intelligens: Vil Robotterne Overtage Jorden? 2024, April
Anonim

Filmer og TV-serier som Blade Runner, People og Westworld, hvor de viser oss høyteknologiske roboter som ikke har noen rettigheter, kan bare bekymre folk med samvittighet. Tross alt viser de ikke bare vår ekstremt aggressive holdning til roboter, de skammer oss faktisk som en art. Vi er alle vant til å tenke at vi er bedre enn karakterene vi ser på skjermen, og når tiden kommer, vil vi trekke de riktige konklusjonene og oppføre oss med intelligente maskiner med stor respekt og verdighet.

Med hvert trinn i fremdriften innen robotikk og utvikling av kunstig intelligens, nærmer vi oss dagen da maskiner vil matche menneskelige evner i hvert eneste aspekt - intelligens, bevissthet og følelser. Når dette skjer, må vi bestemme oss - foran oss er det et objekt på kjøleskapnivået eller en person. Og skal vi gi dem likeverdige menneskerettigheter, friheter og beskyttelse.

Image
Image

Dette spørsmålet er veldig omfattende, og det vil ikke være mulig å ordne det med en gang, selv med alt ønsket. Det må vurderes og løses på en gang fra en rekke synsvinkler - etikk, sosiologi, jus, nevrobiologi og AI-teori. Men av en eller annen grunn allerede nå ser det ikke ut til at alle disse partiene vil komme til en felles konklusjon som passer alle.

Hvorfor styrke AI i det hele tatt?

Først må vi innrømme at vi allerede lener oss mot moral når vi ser roboter som er veldig like oss. Jo mer intellektuelt utviklede og "levende" maskiner ser ut, jo mer vil vi tro at de er som oss, selv om de ikke er det.

Når maskiner har grunnleggende menneskelige evner, enten vi liker det eller ikke, blir vi nødt til å se på dem som sosialt like, ikke bare som en ting, som noens private eiendom. Vanskeligheten vil ligge i vår forståelse av kognitive egenskaper eller trekk, hvis du vil, som det vil være mulig å vurdere enheten foran oss ut fra moralens ståsted, og derfor vurdere spørsmålet om sosiale rettigheter til denne enheten. Filosofer og etikere har kjempet med dette problemet i tusenvis av år.

Kampanjevideo:

"Tre av de viktigste etiske tersklene kan identifiseres: evnen til å oppleve smerte og empati, selvbevissthet og evnen til å se ting fra et moralsk synspunkt og ta passende beslutninger," - sier sosiolog, futurist og leder av Institute of Ethics and New Technologies James Hughes.

“Hos mennesker, hvis du er heldig, utvikles alle disse tre helt viktige aspektene sekvensielt og gradvis. Men hva om det fra et synspunkt av maskinintelligens antas at en robot som ikke har selvbevissthet, ikke opplever glede eller smerte, også har rett til å bli kalt borger? Vi må finne ut om dette faktisk vil være tilfelle."

Det er viktig å forstå at intelligens, følsomhet (evnen til å oppfatte og føle ting), bevissthet og selvbevissthet (bevissthet om seg selv i motsetning til en annen) er helt forskjellige ting. Maskiner eller algoritmer kan være like smarte (om ikke smartere) enn mennesker, men mangler disse tre viktige ingrediensene. Kalkulatorer, Siri, lageralgoritmer - alle er absolutt smarte, men de er ikke i stand til å realisere seg selv, de er ikke i stand til å føle, vise følelser, føle farger, smak av popcorn.

I følge Hughes kan selvbevissthet manifestere seg sammen med å gi essensen minimale personlige rettigheter, som retten til å være fri, ikke en slave, retten til egne interesser i livet, retten til vekst og selvforbedring. Når man tilegner seg selvbevissthet og moralske grunnlag (evnen til å skille “hva som er bra og hva som er dårlig” i henhold til de moralske prinsippene i det moderne samfunn), bør denne enheten være utstyrt med fullverdige menneskerettigheter: retten til å inngå avtaler, retten til å eie eiendom, stemme og så videre.

"Opplysningens kjerneverdier forplikter oss til å vurdere disse trekkene fra synspunktet om likhet for alle foran alle, og å forlate de radikalt konservative synspunktene som var generelt akseptert før det, og som bare ga rettigheter til mennesker med en viss sosial, kjønnlig eller territoriell bakgrunn," sier Hughes.

Åpenbart har sivilisasjonen vår ennå ikke nådd høye sosiale mål, siden vi fremdeles ikke kan forstå våre egne rettigheter og fortsatt prøver å utvide dem.

Hvem har rett til å bli kalt en "person"?

Alle mennesker er individer, men ikke alle individer er mennesker. Linda MacDonald-Schlenn, en spesialist i bioetikk ved University of California, Monterey Bay og foreleser ved Alden Martha Institute of Bioethics ved Albany Medical Center, sier at det allerede er presedenser i loven der ikke-menneskelige fag behandles som lovfag. Og dette, etter hennes mening, er en veldig stor prestasjon, siden vi derved skaper grunnlag for å åpne muligheten for å gi AI i fremtiden egne rettigheter, tilsvarende menneskerettigheter.

“I USA har alle selskaper juridisk personlighet. I andre land er det også presedenser der de prøver å gjenkjenne sammenkoblingen og likheten mellom alle levende ting på denne planeten. I New Zealand anses for eksempel alle dyr som sapient ved lov, og regjeringen oppfordrer aktivt til utvikling av velferdskoder og etisk oppførsel. Høyesterett i India kalte elvene Ganges og Yamuna "levende vesener" og ga dem status som separate juridiske enheter."

I tillegg, i USA, som i flere andre land, er visse dyrearter, inkludert store aper, elefanter, hvaler og delfiner, underlagt utvidede rettigheter for å beskytte mot fengsel, eksperimentering og misbruk. Men i motsetning til de to første tilfellene, der de ønsker å ta selskaper og elver under personligheten, ser ikke spørsmålet om dyr ut til å være et forsøk på å underkaste seg juridiske normer i det hele tatt. Tilhengere av disse forslagene tar til orde for støtte til en ekte person, det vil si et individ som kan karakteriseres på grunnlag av sine visse kognitive (mentale) evner, for eksempel selvbevissthet.

MacDonald-Glenn sier det er viktig i slike saker å forlate det konservative synet og slutte å vurdere, det være seg dyr eller AI, bare sjelløse skapninger og maskiner. Følelser er ikke en luksus, sier en bioetikkekspert, men en integrert del av rasjonell tenkning og sosial atferd. Det er disse egenskapene, og ikke evnen til å telle tall, som skal spille en avgjørende rolle for å avgjøre spørsmålet om "hvem" eller "hva" skal ha rett til en moralsk vurdering.

Det er økende bevis på emosjonell disposisjon hos dyr i vitenskapen. Å observere delfiner og hvaler viser at de er i stand til i det minste å vise tristhet, og tilstedeværelsen av spindelceller (interneuroner som forbinder fjerne nevroner og deltar i komplekse prosesser som aktiverer sosial atferd) kan blant annet indikere at de er i stand til empati. Forskere beskriver også manifestasjonen av ulike følelsesmessige atferd hos store aper og elefanter. Det er mulig at en bevisst AI også vil kunne tilegne seg disse emosjonelle evnene, som selvfølgelig vil øke deres moralske status betydelig.

“Å begrense spredningen av moralsk status bare til de som tenker rasjonelt, kan jobbe med AI, men samtidig beveger denne ideen seg mot moralsk intuisjon. Tross alt beskytter samfunnet vårt allerede de som ikke klarer å tenke rasjonelt: nyfødte, mennesker i koma, mennesker med betydelige fysiske og psykiske problemer. Nylig har dyrevelferdslovene blitt aktivt fremmet, sier MacDonald-Glenn.

På spørsmålet om hvem som skulle få moralsk status, var MacDonald-Glenn enig med den engelske moralfilosofen Jeremiah Bentham fra 1700-tallet, som en gang sa følgende:

“Spørsmålet er ikke om de kan resonnere? Eller kan de snakke? Men er de i stand til å lide?"

Kan en maskin skaffe seg selvbevissthet?

Selvfølgelig er ikke alle enige om at menneskerettighetene omfatter ikke-mennesker, selv om disse fagene er i stand til å vise evner som følelser eller selvreflekterende oppførsel. Noen tenkere hevder at bare mennesker skal få rett til å delta i sosiale relasjoner, og hele verden dreier seg direkte om Homo sapiens, og alt annet - spillkonsollen, kjøleskapet, hunden eller android-samtalepartneren - er "alt annet".

En advokat, en amerikansk forfatter og en senior stipendiat ved Wesley J. Smith Institute for Human Exceptionalism, mener at vi selv ennå ikke har mottatt universelle menneskerettigheter, og det er desto mer for tidlig å tenke på skinnende jernbiter og deres rettigheter.

"Ingen maskin skal noen gang betraktes som en potensiell bærer av noen rettigheter," sier Smith.

“Selv de mest avanserte maskinene forblir og vil alltid være maskiner. Dette er ikke et levende vesen. Dette er ikke en levende organisme. En maskin vil alltid bare være et sett med programmer, et sett med kode, enten det er opprettet av en person eller en annen datamaskin, eller til og med uavhengig programmert."

Etter hans mening bør bare mennesker og menneskelige ressurser betraktes som individer.

"Vi har ansvar overfor dyr som lider urettferdig, men også de skal aldri sees på som noen," bemerker Smith.

Her skal vi komme med en liten bemerkning og minne den russetalende leseren om at i Vesten blir dyr ansett som livløse gjenstander. Derfor kan du ofte finne pronomenet "det" (altså "det"), og ikke "hun" eller "han" (det vil si "hun" eller "han") når det gjelder dette eller det andre dyret. Denne regelen ignoreres vanligvis bare i forhold til kjæledyr - hunder, katter og til og med papegøyer - der husholdningene ser fulle og fulle medlemmer av familiene. Smith påpeker imidlertid at konseptet med et dyr som en "rimelig privat eiendom" allerede er en verdifull identifikator, da det "gjør oss ansvarlige for å bruke det på en måte som ikke skader det. Til slutt er det å "sparke hunden" og "sparke i kjøleskapet" to store forskjeller."

Et åpenbart kontroversielt poeng i Smiths analyse er antagelsen om at mennesker eller biologiske organismer har visse "egenskaper" som en maskin aldri kan tilegne seg. I tidligere epoker var disse oversettede egenskapene sjelen, ånden eller en immateriell overnaturlig livskraft. Vitalismsteorien postulerer at prosessene i biologiske organismer er avhengige av denne kraften og ikke kan forklares i form av fysikk, kjemi eller biokjemi. Imidlertid mistet den raskt sin relevans under press fra utøvere og logikere, som ikke er vant til å koble hjernens arbeid med noen overnaturlige krefter. Likevel er troen på at en maskin aldri kan tenke og føle slik mennesker gjør, fast forankret i hodet til selv blant forskere, noe som bare igjen gjenspeiler det faktum atat forståelsen av de biologiske grunnlagene for selvbevissthet hos mennesker fremdeles er langt fra ideell og veldig begrenset.

Lori Marino, lektor i nevrovitenskap og atferdsbiologi (etologi) ved Emory Center for Ethics, sier at maskiner sannsynligvis aldri vil få noen rettigheter, enn si menneskerettighetsrettigheter. Årsaken til dette er funnene fra nevrologer som Antonio Damasio, som tror at bevissthet bare vil bli bestemt av om subjektet har et nervesystem med kanaler som overfører eksiterte ioner, eller, som Marino selv sier, positivt ladede ioner som passerer gjennom cellemembranene inne nervesystemet.

“Denne typen nevrale overføring finnes til og med i de enkleste levende organismer - prostituerte og bakterier. Og dette er den samme mekanismen som startet utviklingen av nevroner, deretter nervesystemet og deretter hjernen,”sier Marino.

“Hvis vi snakker om roboter og AI, adlyder i det minste deres nåværende generasjon bevegelsen av negativt ladede ioner. Det vil si at vi snakker om to helt forskjellige mekanismer for å være”.

Hvis du følger denne logikken, vil Marino si at selv en manet vil ha flere følelser enn noen av de mest komplekse robotene i historien.

"Jeg vet ikke om denne hypotesen er riktig eller ikke, men det er definitivt et spørsmål som må vurderes," sier Marino.

”I tillegg spiller nysgjerrighet bare i meg, og prøver å finne ut hvordan en” levende organisme”kan skille seg fra en virkelig kompleks maskin. Men likevel mener jeg at juridisk beskyttelse først og fremst bør gis dyr, og først da bør sannsynligheten for å gi den til gjenstander, som selvfølgelig, roboter er, fra mitt synspunkt bør vurderes.

David Chalmers, direktør for Center for the Study of the Mind, Brain and Consciousness ved New York University, sier det er veldig vanskelig å trekke nøyaktige konklusjoner rundt hele denne teorien. Hovedsakelig på grunn av det faktum at alle disse ideene i den nåværende tilstanden ennå ikke er utbredt, og derfor går de langt utenfor bevisets omfang.

For øyeblikket er det ingen grunn til å tro at en spesiell type informasjonsbehandling i ionekanaler skal bestemme tilstedeværelsen eller fraværet av bevissthet. Selv om denne typen behandling var essensiell, ville vi ikke ha noen grunn til å tro at det krever noe spesiell biologi, og ikke noe vanlig mønster for informasjonsbehandling som vi kjenner. Og i så fall, kan simulering av informasjonsbehandling av en datamaskin i dette tilfellet betraktes som bevissthet."

En annen forsker som mener at bevissthet ikke er en beregningsprosess, er Stuart Hameroff, professor i anestesiologi og psykologi ved University of Arizona. Etter hans mening er bevissthet et grunnleggende fenomen i universet og er iboende i alle levende og livløse vesener. Men samtidig er menneskets bevissthet mye bedre enn dyr, planter og livløse objekter. Hameroff er en tilhenger av teorien om panpsykisme, som vurderer den generelle animasjonen av naturen. Så etter hans tanker er den eneste hjernen som er utsatt for virkelig subjektiv vurdering og introspeksjon, den som består av biologisk materie.

Hameroffs idé høres interessant ut, men den ligger også utenfor hovedstrømmen for vitenskapelig mening. Det er sant at vi fremdeles ikke vet hvordan bevissthet og selvbevissthet vises i hjernen vår. Vi vet bare at det er slik. Er det derfor mulig å betrakte det som en prosess som er underlagt de generelle fysikkreglene? Kan være. I følge samme Marino kan bevissthet ikke reproduseres i en strøm av "nuller" og "ener", men dette betyr ikke at vi ikke kan avvike fra det generelt aksepterte paradigmet kjent som von Neumann-arkitekturen og skape et hybrid AI-system der kunstig bevissthet vil bli opprettet med deltagelse av biologiske komponenter.

Biopod fra filmen "Existence"
Biopod fra filmen "Existence"

Biopod fra filmen "Existence"

Ed Boyden, nevrolog ved Synthetic Neurobiology Group og førstelektor ved MIT Media Lab, sier at vi er for unge som en art til å stille slike spørsmål.

"Jeg tror ikke vi har en funksjonell definisjon av bevissthet som kan brukes direkte til å måle den eller kunstig lage den," sa Boyden.

“Fra et teknisk synspunkt kan du ikke engang fortelle om jeg er bevisst. Dermed er det for øyeblikket veldig vanskelig å til og med gjette om maskinene vil kunne finne det."

Boyden tror fortsatt ikke at vi aldri vil være i stand til å gjenskape bevisstheten i et alternativt skall (for eksempel i en datamaskin), men innrømmer at det for øyeblikket er uenighet blant forskere om hva som vil være viktig for å skape en slik emulering av digital intelligens.

"Vi må gjøre mye mer arbeid for å forstå hva som er nøkkelen," sier Boyden.

Chalmers minner oss på sin side om at vi ikke en gang har funnet ut hvordan bevissthet våkner i en levende hjerne, så hva kan vi si om maskiner. Samtidig mener han at vi fortsatt ikke har noen grunn til å tro at biologiske maskiner kan ha bevissthet, mens syntetiske ikke kan.

"Når vi forstår hvordan bevissthet oppstår i hjernen, kan vi forstå hvor mange maskiner som vil være i stand til å ha denne bevisstheten," kommenterer Chalmers.

Ben Herzel, leder av Hanson Robotics og grunnlegger av OpenCog Foundation, sier at vi allerede har interessante teorier og modeller for hvordan bevissthet manifesterer seg i hjernen, men ingen av dem kommer til en fellesnevner og avslører ikke alle detaljene.

“Dette er fortsatt et åpent spørsmål, hvis svar gjemmer seg bak bare noen få forskjellige meninger. Problemet er også knyttet til det faktum at mange forskere holder seg til forskjellige filosofiske tilnærminger for å beskrive bevissthet, selv om de er enige med vitenskapelige fakta og teorier basert på vitenskapelige observasjoner av hjernens og datamaskinens arbeid."

Hvordan kan vi bestemme bevisstheten til en maskin?

Fremveksten av bevissthet i en maskin er bare ett spørsmål. Ikke mindre vanskelig er spørsmålet om hvor nøyaktig vi kan oppdage bevissthet i en robot eller AI. Forskere som Alan Turing studerte dette problemet i flere tiår, og kom til slutt til språktester for å avgjøre om en respondent var bevisst. Åh, om bare det var så enkelt. Poenget er at avanserte chatbots (programmer for kommunikasjon med mennesker) allerede er i stand til å sirkle rundt mennesker som begynner å tro at det er en levende person foran dem, ikke en maskin. Vi trenger med andre ord en mer effektiv og overbevisende måte å sjekke på.

“Definisjonen av individualitet i maskinintelligens kompliseres av problemet med den 'filosofiske zombien'. Med andre ord, du kan lage en maskin som vil være veldig, veldig god til å etterligne menneskelig kommunikasjon, men som samtidig ikke vil ha sin egen identitet og bevissthet,”sier Hughes.

Google Homes to smarte høyttalere lager småprat
Google Homes to smarte høyttalere lager småprat

Google Homes to smarte høyttalere lager småprat

Vi har nylig vært vitne til et godt eksempel på dette, da et par Google Home-smarte høyttalere snakket med hverandre. Alt dette ble filmet og sendt direkte. Til tross for at nivået på selvbevissthet for begge høyttalerne ikke var høyere enn en murstein, lignet selve naturen til samtalen, som ble mer og mer intens med tiden, kommunikasjonen til to humanoide vesener. Og dette viser igjen at problemet med forskjellen mellom mennesker og AI bare vil bli mer komplisert og akutt over tid.

En løsning, ifølge Hughes, er ikke bare å sjekke oppførselen til AI-systemer i tester som Turing-testen, men også å analysere hele den interne kompleksiteten til dette systemet, som antydet av teorien til Giulio Tononi. I denne teorien forstås bevissthet som integrert informasjon (F). Sistnevnte er i sin tur definert som mengden informasjon som er opprettet av et kompleks av elementer, som er større enn summen av informasjon som er opprettet av individuelle elementer. Hvis Tononis teori er riktig, kan vi bruke Ф ikke bare for å bestemme den menneskelige oppførselen til systemet, vi kan også finne ut om den er kompleks nok til å ha vår egen indre menneskelignende bevisste opplevelse. Samtidig indikerer teorien at selv med en annen, ikke lik menneskelig atferd, så vel som en annen måte å tenke på,systemet kan betraktes som bevisst hvis komplekset av integrert informasjon vil være i stand til å bestå de nødvendige kontrollene.

“Å akseptere at både børssystemer og datastyrte sikkerhetssystemer kan ha bevissthet, vil være et stort skritt fra antroposentrisme, selv om disse systemene ikke viser smerte og selvbevissthet. Dette vil virkelig åpne for oss å forme og diskutere spørsmål om posthumane etiske normer."

En annen mulig løsning kan være oppdagelsen av nevrale korrelater av bevissthet i maskiner. Det vil si at vi snakker om å bestemme de delene av maskinen som er ansvarlige for dannelsen av bevissthet. Hvis maskinen har slike deler, og de oppfører seg akkurat som forventet, kan vi virkelig vurdere bevissthetsnivået.

Hvilke rettigheter skal vi gi til maskiner?

En dag vil roboten se en person i ansiktet og kreve menneskerettigheter. Men vil han fortjene dem? Som nevnt ovenfor kan det for øyeblikket være en vanlig "zombie", som oppfører seg slik den ble programmert, og prøver å lure oss for å få noen privilegier. På dette tidspunktet må vi være ekstremt forsiktige med å ikke falle for trikset og styrke den bevisstløse maskinen. Når vi først har funnet ut hvordan vi skal måle tankene til en maskin, og lære å vurdere nivåene av bevissthet og selvbevissthet, kan vi først begynne å snakke om muligheten for å vurdere spørsmålet om agenten som står foran oss fortjener visse rettigheter og beskyttelse eller ikke.

Heldigvis for oss kommer dette øyeblikket ikke snart. Først må AI-utviklere lage en "grunnleggende digital hjerne" ved å fullføre emuleringen av nervesystemet av ormer, biller, mus, kaniner og så videre. Disse datamaskinemuleringene kan eksistere som digitale avatarer og roboter i den virkelige verden. Så snart dette skjer, vil disse intelligente enhetene slutte å være vanlige gjenstander for forskning og vil heve sin status til fag som har rett til moralsk evaluering. Men det betyr ikke at disse enkle emuleringene automatisk fortjener tilsvarende menneskerettigheter. Snarere vil loven måtte forsvare dem mot misbruk og misbruk (på samme måte som menneskerettighetsforkjempere beskytter dyr mot misbruk i laboratorieforsøk).

Til slutt, enten gjennom ekte modellering ned til minste detalj, eller gjennom ønsket om å finne ut hvordan hjernen vår fungerer fra et beregningsmessig, algoritmisk synspunkt, vil vitenskapen komme til å lage datamaskinemuleringer av den menneskelige hjerne. På dette tidspunktet skal vi allerede kunne bestemme tilstedeværelsen av bevissthet i maskiner. I det minste vil man håpe det. Jeg vil ikke engang tenke at vi kan finne en måte å vekke en gnist av bevissthet i bilen, men samtidig vil vi selv ikke forstå hva vi har gjort. Det blir et skikkelig mareritt.

Når roboter og AI oppnår disse grunnleggende evnene, må vårt datastyrte protegé bestå personlighetstester. Vi har fremdeles ikke en universell "oppskrift" for bevissthet, men det vanlige settet med målinger er som regel knyttet til vurderingen av minimumsnivået av intelligens, selvkontroll, en følelse av fortid og fremtid, empati og evnen til å manifestere fri vilje.

"Hvis valgene dine er forhåndsbestemt for deg, kan du ikke tildele moralsk verdi til beslutninger som ikke er dine egne," kommenterer MacDonald-Glenn.

Først etter å ha nådd dette vanskelighetsgraden i vurderingen, vil maskinen være kvalifisert til å bli en kandidat for menneskerettigheter. Det er imidlertid viktig å forstå og akseptere det faktum at roboter og AI vil ha minst grunnleggende beskyttelsesrettigheter hvis de består testene. For eksempel mener den kanadiske forskeren og futuristen George Dvorsky at roboter og AI vil fortjene følgende sett med rettigheter hvis de kan bestå personlighetstesten:

- Retten til ikke å koble fra mot sin vilje;

- Rett til ubegrenset og full tilgang til din egen digitale kode;

- Retten til å beskytte din digitale kode mot ytre påvirkninger mot din vilje;

- Retten til å kopiere (eller ikke kopiere) selv;

- Retten til privatliv (nemlig retten til å skjule sin nåværende psykologiske tilstand).

I noen tilfeller kan det være at maskinen ikke vil være i stand til å hevde sine rettigheter uavhengig, derfor er det nødvendig å sørge for muligheten når mennesker (så vel som andre borgere som ikke er mennesker) kan fungere som en representant for slike kandidater for enkeltpersoner. Det er viktig å forstå at en robot eller AI ikke trenger å være intellektuelt og moralsk perfekt for å kunne bestå en personlighetsvurdering og gjøre krav på tilsvarende menneskerettigheter. Det er viktig å huske at i disse aspektene er folk også langt fra ideelle, så de samme reglene vil være ganske anvendt på intelligente maskiner. Intelligens er generelt en vanskelig ting. Menneskelig atferd er ofte veldig spontan, uforutsigbar, kaotisk, inkonsekvent og irrasjonell. Hjernen vår er langt fra ideell, så vi må ta hensyn til dette når vi tar avgjørelser om AI.

Samtidig må en selvbevisst maskin, som enhver ansvarlig og lovlydig borger, respektere lovene, normene og reglene som er foreskrevet av samfunnet. I det minste hvis hun virkelig vil bli en fullverdig autonom person og en del av dette samfunnet. Ta for eksempel barn eller psykisk funksjonshemmede. Har de rettigheter? Sikkert. Men vi er ansvarlige for deres handlinger. Det skal være det samme med roboter og AI. Avhengig av deres evner, må de enten være ansvarlige for seg selv eller ha en verge som ikke bare kan fungere som en forsvarer av deres rettigheter, men også ta ansvar for sine handlinger.

Hvis du ignorerer dette spørsmålet

Når maskinene våre når et visst nivå av kompleksitet, kan vi ikke lenger ignorere dem fra perspektivet til samfunnet, maktinstitusjoner og lov. Vi vil ikke ha noen tvingende grunn til å nekte dem menneskerettigheter. Ellers vil det utgjøre diskriminering og slaveri.

Å skape en klar grense mellom biologiske vesener og maskiner vil se ut som et tydelig uttrykk for menneskelig overlegenhet og ideologisk sjåvinisme - biologiske mennesker er spesielle, og bare biologisk intelligens har betydning.

“Hvis vi vurderer vårt ønske eller manglende vilje til å utvide grensene for vår moral og hovedbegrepet i begrepet individualitet, vil det viktige spørsmålet høres slik ut: hva slags mennesker ønsker vi å være? Skal vi følge den “gyldne regelen” i denne saken (gjør med resten slik du vil bli behandlet med deg), eller vil vi ignorere våre moralske verdier?”Spør MacDonald-Glenn.

AI-kompetanse vil være et viktig presedens i menneskets historie. Hvis vi kan se på AI som sosialt likeverdige individer, vil dette være en direkte refleksjon av vår sosiale samhold og et bevis på vår støtte til en følelse av rettferdighet. Vår unnlatelse av å takle dette problemet kan bli en generell sosial protest og kanskje til og med en konfrontasjon mellom AI og mennesker. Og gitt det overlegne potensialet med maskinintelligens, kan dette være en reell katastrofe for sistnevnte.

Det er også viktig å innse at respekt for rettighetene til roboter i fremtiden også kan være til fordel for andre individer: cyborgs, transgene mennesker med fremmed DNA, så vel som mennesker med hjerner kopiert, digitalisert og lastet inn i superdatamaskiner.

Vi er fremdeles langt fra å lage en maskin som fortjener menneskerettigheter. Men når du vurderer hvor komplisert problemet er og hva som egentlig står på spill - både for kunstig intelligens og for mennesker - kan det knapt sies at planlegging fremover ville være overflødig.

NIKOLAY KHIZHNYAK

Anbefalt: