Moralsk Maskin: Ingeniører Ga Kunstig Intelligens Moral Og Etikk - Alternativt Syn

Innholdsfortegnelse:

Moralsk Maskin: Ingeniører Ga Kunstig Intelligens Moral Og Etikk - Alternativt Syn
Moralsk Maskin: Ingeniører Ga Kunstig Intelligens Moral Og Etikk - Alternativt Syn
Anonim

Jo sterkere AI kommer inn i vårt daglige liv, jo oftere må det møte komplekse moralske og etiske dilemmaer, som noen ganger ikke er så enkle for en levende person å løse. Forskere ved MIT prøvde å løse dette problemet og ga maskinen muligheten til å tenke i moral, basert på synspunktet fra de fleste levende mennesker.

Noen eksperter mener at den beste måten å trene kunstig intelligens til å håndtere moralsk vanskelige situasjoner er ved bruk av "mengdeopplevelse." Andre hevder at denne tilnærmingen ikke vil være uten skjevheter, og forskjellige algoritmer kan komme til forskjellige konklusjoner basert på samme datasett. Hvordan kan maskiner være i en slik situasjon, som åpenbart må ta vanskelige moralske og etiske avgjørelser når de jobber med ekte mennesker?

Intellekt og moral

Etter hvert som kunstig intelligens (AI) -systemer utvikler seg, prøver eksperter i økende grad å løse problemet med hvordan man best kan gi systemet et etisk og moralsk grunnlag for å utføre visse handlinger. Den mest populære ideen er at AI trekker konklusjoner ved å studere menneskelige beslutninger. For å teste denne antagelsen opprettet forskere ved Massachusetts Institute of Technology Moral Machine. Nettsted besøkende ble bedt om å ta valg om hvordan et autonomt kjøretøy skal handle når de står overfor et ganske tøft valg. For eksempel er dette et kjent dilemma om en potensiell ulykke, som bare har to muligheter for utvikling av hendelser: bilen kan treffe tre voksne for å redde livet til to barn, eller den kan gjøre det motsatte. Hvilket alternativ bør du velge? Og er det mulig, for eksempelå ofre livet til en eldre person for å redde en gravid kvinne?

Som et resultat samlet algoritmen en enorm database basert på testresultatene, og Ariel Procaccia fra informatikkavdelingen ved Carnegie Mellon University bestemte seg for å bruke dem til å forbedre maskinintelligens. I en ny studie lastet han og en av skaperne av prosjektet, Iyad Rahwan, hele basen av Moral Machine-prosjektet inn i AI og ba systemet om å forutsi hvordan bilen på autopilot ville reagere på lignende, men likevel litt forskjellige scenarier. Procaccia ønsket å demonstrere hvordan et stemmebasert system kan være en løsning for "etisk" kunstig intelligens. " det er mulig.

Kryssmoral

Kampanjevideo:

Selve ideen om å velge mellom to moralsk negative utfall er ikke ny. Etikk bruker et eget begrep for det: prinsippet om dobbelt effekt. Men dette er feltet bioetikk, men ingen har tidligere brukt et slikt system på en bil, og derfor vekket studien særlig interesse blant eksperter over hele verden. OpenAIs medformann Elon Musk mener at å skape "etisk" AI er et spørsmål om å utvikle klare retningslinjer eller retningslinjer for å lede programutvikling. Politikere hører gradvis på ham: Tyskland opprettet for eksempel verdens første etiske prinsipper for autonome biler. Til og med Googles Alphabet AI DeepMind har nå en avdeling for etikk og offentlig moral.

Andre eksperter, inkludert et team av forskere fra Duke University, mener at den beste måten å komme videre på er å skape et "generelt rammeverk" som beskriver hvordan AI vil ta etiske avgjørelser i en gitt situasjon. De tror at foreningen av kollektive moralske synspunkter, som i samme Moral Machine, vil gjøre kunstig intelligens enda mer moralsk i fremtiden enn det moderne menneskelige samfunn.

Kritikk av den "moralske maskinen"

Uansett er prinsippet om "flertallsoppfatning" langt fra pålitelig. For eksempel kan en gruppe respondenter ha skjevheter som ikke er felles for alle andre. Resultatet vil være at AI-er gitt nøyaktig samme datasett kan komme til forskjellige konklusjoner basert på forskjellige eksempler på den informasjonen.

For professor James Grimmelmann, som spesialiserer seg i dynamikken mellom programvare, rikdom og makt, ser selve ideen om offentlig moral ut feil. "Det er ikke i stand til å undervise i AI-etikk, men bare gi det et overblikk av etiske standarder som ligger i en bestemt del av befolkningen," sier han. Og Procaccia selv, som nevnt ovenfor, innrømmer at deres forskning ikke er mer enn et vellykket bevis på konseptet. Han er imidlertid sikker på at en slik tilnærming kan føre til suksess for hele kampanjen for å skape en svært moralsk AI i fremtiden. "Demokrati har uten tvil en rekke mangler, men som et enhetlig system fungerer det - selv om noen fremdeles tar beslutninger som flertallet ikke er enig i."

Vasily Makarov

Anbefalt: