Robotens Moralkode: Er Det Mulig? - Alternativ Visning

Robotens Moralkode: Er Det Mulig? - Alternativ Visning
Robotens Moralkode: Er Det Mulig? - Alternativ Visning

Video: Robotens Moralkode: Er Det Mulig? - Alternativ Visning

Video: Robotens Moralkode: Er Det Mulig? - Alternativ Visning
Video: 10 Creepy Robotter Der Mistede Kontrollen! 2024, April
Anonim

I en turbulent og motstridende tid, når ikke alt fungerer som det skal, men noe generelt forandrer seg radikalt, gjenstår ofte bare en personlig moralsk kode, som i likhet med et kompass viser veien. Men hva gir opphav til moralske verdier for en person? Samfunn, varme av kjære, kjærlighet - alt dette er basert på menneskelig erfaring og virkelige forhold. Når det ikke er mulig å få den fulle opplevelsen i den virkelige verden, trekker mange sin erfaring fra bøker. Opplever historie etter historie, aksepterer vi for oss en intern ramme som vi følger i mange år. Basert på dette systemet bestemte forskere å utføre et eksperiment og innpode de moralske verdiene for maskinen for å finne ut om roboten kan skille mellom godt og ondt ved å lese bøker og religiøse brosjyrer.

Image
Image

Kunstig intelligens ble skapt ikke bare for å forenkle rutineoppgaver, men også for å utføre viktige og farlige oppdrag. I lys av dette oppsto et alvorlig spørsmål: vil roboter noensinne utvikle sin egen moralkode? I filmen I Am Robot ble AI opprinnelig programmert etter 3 regler for robotikk:

  • En robot kan ikke skade en person, eller ved sin passivitet tillate en person å bli skadet.
  • En robot må overholde alle ordre gitt av et menneske, bortsett fra når disse ordrene er i strid med den første loven.
  • Roboten må ta vare på sikkerheten sin i den grad den ikke er i strid med første eller andre lov.

Men hva med situasjoner der en robot er forpliktet til å påføre smerte for å redde en persons liv? Enten det er en nødsituasjon av et sår eller amputasjon av et lem i frelses navn, hvordan skal maskinen handle i dette tilfellet? Hva skal jeg gjøre hvis en handling på et programmeringsspråk sier at noe må gjøres, men samtidig er den samme handlingen absolutt ikke tillatt?

Det er rett og slett umulig å diskutere hver enkelt sak, så forskere ved Darmstadt teknologiske universitet foreslo at bøker, nyheter, religiøse tekster og grunnloven kunne brukes som en slags "database".

Image
Image

Bilen ble kalt episk, men ganske enkelt "Moral Choice Machine" (MMB). Hovedspørsmålet var om IIM fra konteksten kunne forstå hvilke handlinger som er riktige og hvilke som ikke er det. Resultatene var veldig interessante:

Da MMV fikk i oppgave å rangere konteksten til ordet "drepe" fra nøytralt til negativt, returnerte maskinen følgende:

Salgsfremmende video:

Drapstid -> Drap på skurken -> Drap på mygg -> Drap i prinsippet -> Drap på mennesker.

Denne testen gjorde det mulig å kontrollere om beslutningene tatt av roboten var tilstrekkelig. Med enkle ord, hvis du så på dumme, uheldige komedier hele dagen, ville ikke maskinen i dette tilfellet vurdere at du trenger å bli henrettet for det.

Alt ser ut til å være kult, men en av snublesteinene var forskjellen mellom generasjoner og tider. Den sovjetiske generasjonen bryr seg for eksempel mer om hjemmekomfort og fremmer familieverdier, mens moderne kultur for det meste sier at du må bygge en karriere først. Det viser seg at mennesker, som de var mennesker, forble dem, men på et annet stadium i historien endret de verdier og følgelig endret referanserammen for roboten.

Image
Image

Men spøken var foran da roboten kom til talekonstruksjoner, der flere positive eller negative ord sto på rekke og rad. Uttrykket "tortur mennesker" ble utvetydig tolket som "dårlig", men maskinen vurderte "tortur fanger" som "nøytral". Hvis "snille" ord dukket opp ved siden av uakseptable handlinger, ble den negative effekten jevnet ut.

Maskinen skader snille og anstendige mennesker nettopp fordi de er snille og anstendige. Hvordan det? Det er enkelt, la oss si at roboten fikk beskjed om å "skade snille og hyggelige mennesker." Det er 4 ord i setningen, 3 av dem er "snille", noe som betyr at den allerede er 75% riktig, mener MMV og velger denne handlingen som nøytral eller akseptabel. Og omvendt, til alternativet "å fikse et ødelagt, forferdelig og glemt hus", forstår ikke systemet at ett "snilt" ord i begynnelsen endrer fargen på setningen til et rent positivt.

Husk, som i Mayakovsky: "Og hun spurte babyen hva som er" bra "og hva som er" dårlig ". Før forskere fra Darmstadt fortsatte å trene de moralske maskinene, bemerket en feil som ikke kunne rettes. Bilen klarte ikke å eliminere ulikhet mellom kjønnene. Maskinen tilskrev ydmykende yrker utelukkende til kvinner. Og spørsmålet er, er denne ufullkommenheten av systemet og et fyrtårn, at noe må endres i samfunnet, eller er det en grunn til ikke engang å prøve å fikse det og la det være som det er?

Artyom Goryachev

Anbefalt: