Å Bygge En Moralsk Maskin: Hvem Vil Være Ansvarlig For Etikken I Selvkjørende Biler? - Alternativ Visning

Innholdsfortegnelse:

Å Bygge En Moralsk Maskin: Hvem Vil Være Ansvarlig For Etikken I Selvkjørende Biler? - Alternativ Visning
Å Bygge En Moralsk Maskin: Hvem Vil Være Ansvarlig For Etikken I Selvkjørende Biler? - Alternativ Visning

Video: Å Bygge En Moralsk Maskin: Hvem Vil Være Ansvarlig For Etikken I Selvkjørende Biler? - Alternativ Visning

Video: Å Bygge En Moralsk Maskin: Hvem Vil Være Ansvarlig For Etikken I Selvkjørende Biler? - Alternativ Visning
Video: The Choice is Ours (2016) Official Full Version 2024, April
Anonim

Du kjører langs en motorvei når en mann løper ut på en trafikkert vei. Biler beveger seg rundt deg, og du har et lite sekund for å ta en beslutning: prøve å unngå en person og skape risiko for en ulykke? Fortsette å kjøre i håp om at han får tid? Å bremse? Hvordan vurderer du sjansen for å få et barn fast i baksetet? På mange måter er dette et klassisk "moralsk dilemma", et tralleproblem. Hun har en million forskjellige alternativer som lar deg identifisere menneskelige fordommer, men essensen er den samme.

Du er i en situasjon der liv og død står på spill, det er ikke noe enkelt valg, og avgjørelsen din vil faktisk avgjøre hvem som lever og hvem som dør.

Vognens dilemma og kunstig intelligens

MITs nye artikkel, som ble publisert forrige uke i tidsskriftet Nature, prøver å komme med en fungerende løsning på tralleproblemet ved å rekruttere millioner av frivillige. Eksperimentet begynte i 2014 og var en suksess, og mottok over 40 millioner svar fra 233 land, noe som gjorde det til en av de største moralske studiene som noen gang er utført.

En person kan ta slike beslutninger ubevisst. Det er vanskelig å veie alle etiske systemer og moralske forutsetninger når bilen din løper nedover veien. Men i vår verden tas beslutninger i økende grad av algoritmer, og datamaskiner kan lett svare raskere enn vi gjør.

Hypotetiske situasjoner med selvkjørende biler er ikke de eneste moralske beslutningene som algoritmer må ta. Medisinske algoritmer vil velge hvem som skal få behandling med begrensede ressurser. Automatiserte droner vil velge hvor mye "sikkerhetsskader" som er akseptabelt i et individuelt militært engasjement.

Salgsfremmende video:

Ikke alle moralske prinsipper er like

“Løsningene” på tralleproblemet er like varierte som problemene i seg selv. Hvordan vil maskiner ta moralske beslutninger når grunnlaget for moral og etikk ikke er universelt akseptert og kanskje ikke har løsninger? Hvem kan bestemme om en algoritme gjør riktig eller galt?

Den crowddsourcing-tilnærmingen som forskere fra Moral Machine bruker, er ganske pragmatisk. Til slutt, for at offentligheten skal akseptere selvkjørende biler, må den godta det moralske grunnlaget bak beslutningene deres. Det vil ikke være bra hvis etikere eller advokater kommer frem til en løsning som enten er uakseptabel eller uakseptabel for vanlige sjåfører.

Resultatene fører til den nysgjerrige konklusjonen at moralske prioriteringer (og derav de algoritmiske beslutningene som mennesker kan ta) avhenger av hvor i verden du er.

Først av alt erkjenner forskere at det er umulig å kjenne frekvensen eller arten av disse situasjonene i det virkelige liv. Mennesker som har vært involvert i en ulykke, kan ofte ikke si hva som skjedde, og rekke mulige situasjoner utelukker en enkel klassifisering. Derfor, for at problemet skal bli mulig å spore opp, må det deles ned i forenklede scenarier, på jakt etter universelle moralske regler og prinsipper.

Når du tar en undersøkelse blir du presentert for tretten spørsmål som krever et enkelt ja eller nei valg, og prøver å begrense svarene til ni faktorer.

Bør bilen svinge inn i en annen bane eller fortsette å bevege seg? Bør du redde unge mennesker, ikke gamle? Kvinner eller menn? Dyr eller mennesker? Skal du prøve å redde så mange liv som mulig, eller er ett barn "verdt" to eldre mennesker? Lagre passasjerer i en bil, ikke fotgjengere? De som ikke følger reglene, eller de som ikke følger reglene? Bør du redde folk som er fysisk sterkere? Hva med mennesker med høyere sosial status, som leger eller forretningsmenn?

I denne tøffe hypotetiske verden må noen dø, og du vil svare på hvert av disse spørsmålene - med ulik grad av entusiasme. Å ta disse beslutningene avslører imidlertid også dypt inngrodde kulturelle normer og skjevheter.

Behandlingen av det enorme datasettet kartlagt av forskere gir universelle regler så vel som nysgjerrige unntak. De tre mest dominerende faktorene, i gjennomsnitt over hele befolkningen, var at alle foretrakk å redde flere liv enn færre, mennesker i stedet for dyr og unge i stedet for gamle.

Regionale forskjeller

Du kan være enig i disse punktene, men jo dypere du tenker på dem, desto mer urovekkende vil de moralske konklusjonene være. Flere respondenter valgte å redde den kriminelle over katten, men generelt foretrakk de å redde hunden framfor den kriminelle. På verdensgjennomsnittet blir det å være gammel rangert høyere enn å være hjemløse, men hjemløse ble mindre reddet enn fete mennesker.

Og disse reglene var ikke universelle: respondenter fra Frankrike, Storbritannia og USA foretrakk de unge, mens respondenter fra Kina og Taiwan var mer villige til å redde eldre. Respondenter fra Japan foretrakk å redde fotgjengere fremfor passasjerer, mens de i Kina foretrekker passasjerer fremfor fotgjengere.

Forskerne fant at de kunne gruppere svarene etter land i tre kategorier:”Vest”, hovedsakelig Nord-Amerika og Europa, der moral i stor grad er basert på kristen lære; "Øst" - Japan, Taiwan, Midt-Østen, der konfucianisme og islam dominerer; "Sørlige" land, inkludert Mellom- og Sør-Amerika, sammen med sterk fransk kulturell innflytelse. Det er en sterkere preferanse for kvinnelig offer i det sørlige segmentet enn andre steder. I det østlige segmentet er det en større tendens til å redde unge mennesker.

Filtrering etter forskjellige respondentattributter gir utallige interessante alternativer. Det er lite sannsynlig at "veldig religiøse" respondenter foretrekker å redde et dyr, men både religiøse og ikke-religiøse respondenter uttrykker omtrent like preferanse for å redde mennesker med høy sosial status (selv om dette kan sies å være i strid med noen religiøse læresetninger). Menn og kvinner foretrekker å redde kvinner, men menn er mindre tilbøyelige til å gjøre det.

Ubesvarte spørsmål

Ingen hevder at denne forskningen på en eller annen måte "løser" alle disse tungtveiende moralske problemer. Studien forfattere bemerker at crowddsourcing online data innebærer skjevhet. Men selv med en stor prøvestørrelse, var antall spørsmål begrenset. Hva om risikoen endres avhengig av avgjørelsen du tar? Hva om algoritmen kan beregne at du bare hadde 50 prosent sjanse for å drepe fotgjengere, gitt hastigheten du beveget deg?

Edmond Awad, en av studiens forfattere, uttrykte forsiktighet med å over tolke resultatene. Diskusjonen, etter hans mening, bør strømme inn i risikoanalyse - hvem som er mer eller mindre i faresonen - i stedet for å bestemme hvem som dør og hvem som ikke gjør det.

Men det viktigste resultatet av studien var diskusjonen som blusset opp på jorda. Når algoritmer begynner å ta mer og mer viktige beslutninger som påvirker folks liv, er det viktig at vi har en kontinuerlig diskusjon om AIs etikk. Å designe en "kunstig samvittighet" må omfatte alles mening. Selv om svarene ikke alltid er enkle å finne, er det best å prøve å danne en moralsk ramme for algoritmer ved ikke å la algoritmer forme verden på egen hånd uten menneskelig kontroll.

Anbefalt: