Kunstig Intelligens Viste Seg å Være En Rasist - Alternativ Visning

Kunstig Intelligens Viste Seg å Være En Rasist - Alternativ Visning
Kunstig Intelligens Viste Seg å Være En Rasist - Alternativ Visning

Video: Kunstig Intelligens Viste Seg å Være En Rasist - Alternativ Visning

Video: Kunstig Intelligens Viste Seg å Være En Rasist - Alternativ Visning
Video: Ledelse i maskinalderen - Hvordan kunstig intelligens kommer til å endre lederjobben 2024, Kan
Anonim

En studie av forskere fra Massachusetts Institute of Technology avslørte detaljene i prosessen med dataanalyse av kunstig intelligens, som ofte blir ledet av sexistiske og rasistiske stereotyper i beslutningsprosessen. Flere systemer som deltok i eksperimentet demonstrerte mottakelighet for menneskelige fordommer.

Den britiske avisen "The Daily Mail" skriver at etter å ha mottatt resultatene av studien, forpliktet teamet av forskere seg til å omprogrammere den kunstige intelligensen, og eliminert tidligere problemer. I følge Irene Chen, som jobber ved Massachusetts Institute of Technology, har datavitere en tendens til å skynde seg at den eneste måten å eliminere elementer av rasisme og sexisme i algoritmer for kunstig intelligens er å forbedre programvarekoden. Kvaliteten på algoritmer er direkte proporsjonal med dataene de bruker. Undersøkelser fra Chen med David Sontag og Fredrik D. Johannson viser at flere tilgjengelige data radikalt kan endre ting til det bedre.

I ett eksperiment så teamet på et system som spådde en persons inntekt basert på tilgjengelig informasjon. Analyse har vist at algoritmen i 50% av tilfellene er tilbøyelig til å forutsi at en kvinnes inntekt i gjennomsnitt vil være mindre enn en manns. Ved å øke mengden tilgjengelig data 10 ganger fant forskerne at faktoren til en slik feil gikk ned med 40%.

I en studie av systemet som brukes på sykehus og spår overlevelse for pasienter som er under alvorlig kirurgi, var dessuten nøyaktigheten av spådommene mye lavere for Mongoloid-løpet enn for kaukasier og negroider. Imidlertid hevder forskere at bruk av avansert analyseteknikk kan redusere prediksjonens nøyaktighet betydelig for pasienter som ikke tilhører Mongoloid-løpet. Dette viser at flere tilgjengelige data kanskje ikke alltid korrigerer algoritmefeil. I stedet bør forskere motta mer informasjon om diskriminerte grupper.

Den nye metoden reiser et annet spørsmål for maskinlæringsforskere om hvordan man effektivt kan analysere data uten eksisterende diskriminering.

Hvordan fungerer maskinlæring i AI-drevne systemer?

Kunstige intelligenssystemer er basert på kunstige nevrale nettverk (ANN), som ekstrapolerer informasjonslagring og læringsteknikker som brukes av den menneskelige hjerne til mekaniske systemer. ANNs trener for å finne mønstre i tilgjengelige informasjonskilder, inkludert tale, tekst og bilder. Å forbedre nøyaktigheten av dataanalyse er en av de grunnleggende forutsetningene som ligger foran den siste utviklingen innen kunstig intelligens.

"Normal" kunstig intelligens bruker inputdataene for å fortelle algoritmen om analysen, mens du arbeider med en enorm mengde informasjon.

Salgsfremmende video:

Praktiske applikasjoner av maskinlæring inkluderer Googles oversettelsestjenester, ansiktsgjenkjenning fra Facebook-bilder og filtre i Snapchat som skanner ansikter før du bruker visuelle effekter på nettet.

Dataregistreringsprosessen er ofte tidkrevende og er vanligvis begrenset av flyten av informasjon om ett aspekt av objektet som studeres. En ny type ANN - et generativ-motstanders nevralt nettverk - motsetter seg mulighetene til to forskjellige roboter med kunstig intelligens på en gang, og provoserer et mindre intelligent system til å lære på bekostning av det andre uten menneskelig deltakelse. Denne teknikken forbedrer effektiviteten og hastigheten på maskinlæring dramatisk og øker kvaliteten på dataanalysen.

Oliy Kurilov

Anbefalt: