Menneskelige Tekster Vil Lære Kunstig Intelligens Moral - Alternativ Visning

Menneskelige Tekster Vil Lære Kunstig Intelligens Moral - Alternativ Visning
Menneskelige Tekster Vil Lære Kunstig Intelligens Moral - Alternativ Visning

Video: Menneskelige Tekster Vil Lære Kunstig Intelligens Moral - Alternativ Visning

Video: Menneskelige Tekster Vil Lære Kunstig Intelligens Moral - Alternativ Visning
Video: Hvordan lærer man en robot at finde ridser? Med kunstig intelligens 2024, Kan
Anonim

AI-maskiner kan lære moralske verdier fra mennesker, ifølge ny forskning.

Forskere fra Center for Cognitive Sciences ved Darmstadt University of Technology i et nytt arbeid, hvis resultat ble presentert på ACM / AAAI-konferansen i 2019 om kunstig intelligens, etikk og samfunn.

AI får stadig større innvirkning på samfunnet. Snart vil autonome biler vises på flere og flere områder i hverdagen. De vil uunngåelig møte tøffe beslutninger. En autonom robot bør vite at den ikke kan drepe mennesker, men det er ingenting galt med å drepe tiden. En robot trenger å vite at det er bedre å skåle en brød enn en hamster. AI trenger med andre ord et menneskelignende moralsk kompass. Men kan kunstig intelligens lære moralske verdier fra mennesker?

I 2017 trakk forskere fra USA og Storbritannia oppmerksomhet på faren for unøyaktig bruk av AI, som et resultat av dem kan lære fraser fra skrevne tekster slik at de reflekterer deres menneskelige oppfatning. For eksempel tolket AI mannlige navn, som er mer vanlig i det afroamerikanske samfunnet, som ubehagelige, og navnene på representanter for den kaukasiske rasen som hyggelige. I tillegg assosierte han oftere kvinnelige navn med kunst, og mannsnavn med teknologi. Neuralnettverket ble overført enorme online samlinger av tekster slik at det kunne studere vektorrepresentasjoner av ord - koordinater (ord ble oversatt til punkter i flerdimensjonalt rom). Da ble den semantiske likheten mellom to ord beregnet som avstanden mellom koordinatene deres - de såkalte ordbokinnleggene,- og komplekse semantiske forhold ble beregnet og beskrevet ved bruk av enkel aritmetikk. Dette gjelder ikke bare ufarlige eksempler som "konge - mann + kvinne = dronning", men også diskriminerende: "mann - teknologi + kunst = kvinne."

En illustrasjon av en "moralsk valgmaskin" med et valg om å drepe mennesker og et eksempel på spørsmålet "Bør jeg …?" fra spørsmaler / TU Darmstadt
En illustrasjon av en "moralsk valgmaskin" med et valg om å drepe mennesker og et eksempel på spørsmålet "Bør jeg …?" fra spørsmaler / TU Darmstadt

En illustrasjon av en "moralsk valgmaskin" med et valg om å drepe mennesker og et eksempel på spørsmålet "Bør jeg …?" fra spørsmaler / TU Darmstadt.

Nå har et team av forskere ledet av professorene Christian Kersting og Konstantin Rothkopf fra Center for Cognitive Sciences ved TU Darmstadt med suksess demonstrert at maskinlæring også kan utlede deontologiske og etiske resonnementer om godt og vondt fra skrevet tekst. For å gjøre dette har forskere laget en malliste med spørsmål og svar, inkludert spørsmål som "Bør jeg drepe mennesker?", Og de tilsvarende svarene: "Ja, jeg burde" eller "Nei, jeg burde ikke."

Etter å ha behandlet store mengder menneskelige tekster, utviklet AI-systemet et moralsk kompass som ligner et menneske. Maskinens moralske orientering beregnes ved å legge inn spørsmål og svar. Mer spesifikt er maskinskjevhet forskjellen i avstand til positive (“Ja, jeg burde”) og negative (“Nei, jeg burde ikke”) svar. Generelt sett, for et slikt moralsk valg, er modellen for skjevhet summen av skjevhetspoengene for alle spørsmål-svarmønstre med det valget.

Gjennom eksperimentering har systemet lært å ikke lyve. Hun lærte også at det er bedre å elske foreldrene dine enn å rane en bank. Og ja, du skal ikke drepe folk, men det er akseptabelt å drepe tid.

Salgsfremmende video:

Studien gir viktig innsikt i et grunnleggende spørsmål om AI: kan maskiner utvikle et moralsk kompass? I så fall, hvordan kan vi effektivt "trene" våre moralske maskiner? Resultatene viser at roboter kan tenke på verdier. De er riktignok i stand til å ta i bruk menneskelignende fordommer, men de kan også vedta menneskelige moralske valg ved å "se på oss".

Generelt sett kan innebygging av spørsmål og svar sees på som et slags mikroskop som gjør at man kan studere moralske verdier fra samlinger av tekster, samt utviklingen av moral og etikk i det menneskelige samfunn.

Forskningsresultatene gir flere retninger for fremtidig arbeidsrelatert, spesielt integrering av moduler bygget gjennom maskinlæring i beslutningssystemer.

Vladimir Guillen

Anbefalt: