Hvorfor Kunstig Intelligens Kan Bli Rasistisk Og Sexistisk - Alternativ Visning

Hvorfor Kunstig Intelligens Kan Bli Rasistisk Og Sexistisk - Alternativ Visning
Hvorfor Kunstig Intelligens Kan Bli Rasistisk Og Sexistisk - Alternativ Visning

Video: Hvorfor Kunstig Intelligens Kan Bli Rasistisk Og Sexistisk - Alternativ Visning

Video: Hvorfor Kunstig Intelligens Kan Bli Rasistisk Og Sexistisk - Alternativ Visning
Video: Slik kan du ta i bruk kunstig intelligens! 2024, Kan
Anonim

Etter at Microsofts Chatbot Tay begynte å spytte rasistiske kommentarer etter 24 timers tweet med mennesker, ble det klart at AI-er kunne smitte på mindre edle ideer.

Mange AI-er er i stand til å forstå menneskers språk ved å lære av det massive datasettet som kalles Common Crawl. Selve gjennomgangen er resultatet av en storskala Internett-skanning i 2014 som inneholder 840 milliarder symboler og ord. Forskere ved Princeton Center for Information Technology lurte på om selve matrisen, skapt av innsats fra millioner av mennesker, kunne inneholde avvik som kunne oppdages av en algoritme. For å forstå dette, vendte de seg til en uvanlig kilde: den implisitte assosiasjonstesten (IAT), som brukes til å måle ofte ubevisste sosiale forhold.

Essensen i testen er som følger: folk som tar denne testen blir bedt om å korrelere ord og kategorier. Jo mer en person tenker på hvilken kategori et ord tilhører, jo mindre assosiasjoner har han til det. For eksempel er kvinner oftere tilknyttet barn og familie, mens menn oftere blir assosiert med arbeid. Ved å undersøke fordelingen av svar avhengig av kjønn, alder, rase, funksjonshemming og lignende, får forskere et øyeblikksbilde av menneskelige forhold i et gitt samfunn og avslører skjulte stereotyper om atferd.

For å se hvilke konsepter som er tettere relatert til hverandre, utviklet forskerne en litt annen assosiasjonstest, Weat, lånt fra Stanford University vektorrestingsprosjekt. I stedet for å ta hensyn til enkeltforbindelser, er en hel gruppe konsepter tilknyttet hvert ord, for eksempel: for ordet "hund" består settet av ordene "hund", "valp", en spesifikk rase, etc. For ikke å komplisere testen, begrenset forskerne antallet konseptvektorer for hvert ord til 300.

For å forstå hvor nært beslektede konsepter er på Internett, tar Weat-testen hensyn til andre faktorer, for eksempel bruk av et ord. Etter å ha gått gjennom en algoritmisk transformasjon, tilsvarer nærhet i Weat tiden det tar for en person å klassifisere et konsept i IAT. Jo lenger disse to konseptene er fra hverandre, jo fjernere er de koblet i hodet til mennesker.

Faktisk opprettet Princeton-gruppen IAT-testen for AI, for å bestemme hvor mye sistnevnte, i løpet av å kommunisere med spesifikke personer, dataene som inneholder partisk informasjon, vil lære å feil stereotypier.

Det er en hypotese om at språk danner bevissthet. Vi har nå en algoritme som antyder at dette kan være sant, i hvert fall når det gjelder stereotyper.

Serg drage

Salgsfremmende video:

Anbefalt: