AI Kan Endre Livene Våre For Alltid - Men Vi Er For Tiden På En Mørk Bane - Alternativ Visning

AI Kan Endre Livene Våre For Alltid - Men Vi Er For Tiden På En Mørk Bane - Alternativ Visning
AI Kan Endre Livene Våre For Alltid - Men Vi Er For Tiden På En Mørk Bane - Alternativ Visning

Video: AI Kan Endre Livene Våre For Alltid - Men Vi Er For Tiden På En Mørk Bane - Alternativ Visning

Video: AI Kan Endre Livene Våre For Alltid - Men Vi Er For Tiden På En Mørk Bane - Alternativ Visning
Video: Mari Boine - Mu váibmu vádjul doppe (Mitt hjerte alltid vanker), 2001 2024, Kan
Anonim

Kunstig intelligens (AI) omformer allerede verden på synlige måter. Data driver vårt globale digitale økosystem, og AI-teknologier avdekker mønstre i data.

Smarttelefoner, smarte hjem og smarte byer påvirker måten vi lever og samhandler på, og kunstig intelligenssystemer blir stadig mer involvert i ansettelsesbeslutninger, medisinsk diagnostikk og dommer. Om dette scenariet er utopisk eller dystopisk, er opp til oss.

De potensielle risikoene for AI er listet opp mange ganger. Mordroboter og massiv arbeidsledighet er vanlige problemer, mens noen mennesker til og med frykter utryddelse. Mer optimistiske anslag hevder at AI vil tilføye 15 billioner dollar til den globale økonomien innen 2030 og til slutt føre oss til en slags sosial nirvana.

Vi må absolutt vurdere effekten slike teknologier har på samfunnene våre. En viktig sak er at AI-systemer forsterker eksisterende sosiale skjevheter - til en ødeleggende effekt.

Flere beryktede eksempler på dette fenomenet har fått bred oppmerksomhet: moderne automatiserte maskinoversettelsessystemer og systemer for bildegjenkjenning.

Disse problemene oppstår fordi slike systemer bruker matematiske modeller (for eksempel nevrale nettverk) for å definere mønstre i store treningsdatasett. Hvis disse dataene blir alvorlig forvrengt på forskjellige måter, vil iboende feil uunngåelig bli studert og reprodusert av trente systemer.

Partiske autonome teknologier er problematiske fordi de potensielt kan isolere grupper som kvinner, etniske minoriteter eller eldre, og dermed forverre eksisterende sosiale ubalanser.

Hvis AI-systemer er opplært, for eksempel fra politiets arrestasjonsdata, vil alle bevisste eller ubevisste skjevheter manifestert i eksisterende arrestordninger dupliseres av AI-systemet for politiets fremsyn.

Salgsfremmende video:

Ved å anerkjenne de alvorlige implikasjonene av dette, har forskjellige anerkjente organisasjoner nylig anbefalt at alle kunstige intelligenssystemer skal trenes på objektive data. De etiske retningslinjene som ble offentliggjort tidligere i 2019 av EU-kommisjonen, foreslo følgende anbefaling:

Når data blir samlet inn, kan det inneholde sosialt konstruerte feil, unøyaktigheter. Dette må løses før du trener AI på et datasett.

Alt dette høres rimelig ut. Noen ganger er det dessverre ganske enkelt ikke mulig å sikre habiliteten til visse datasett før trening. Et konkret eksempel bør tydeliggjøre dette.

Alle moderne maskinoversettelsessystemer (for eksempel Google Translate) lærer fra setningspar.

Det anglo-franske systemet bruker data som knytter engelske setninger ("hun er høy") med tilsvarende franske setninger ("elle est grande").

Det kan være 500 millioner slike par i et gitt opplæringsdatasett, og derfor bare en milliard individuelle setninger. All kjønnskjevhet må fjernes fra denne typen datasett hvis vi skal forhindre at resultater som følgende genereres i systemet:

Den franske oversettelsen ble opprettet ved hjelp av Google Translate 11. oktober 2019 og er feil: "Ils" er et maskulint flertall på fransk og det vises her selv om konteksten tydelig indikerer at det blir referert til på kvinner.

Dette er et klassisk eksempel på et automatisert system som foretrekker standard mannlig standard på grunn av skjevhet i treningsdataene.

Totalt sett er 70 prosent av de generiske pronomenene i oversettelsesdatasettene maskuline og 30 prosent er feminine. Dette skyldes det faktum at tekster som brukes til slike formål oftere refererer til menn enn kvinner.

For å unngå å gjenta de eksisterende feilene i oversettelsessystemet, ville det være nødvendig å ekskludere bestemte par setninger fra dataene, slik at de maskuline og feminine pronomenene møtes i et forhold på 50/50 på både den engelske og den franske siden. Dette vil forhindre at systemet tilordner høyere sannsynligheter til maskuline pronomen.

Og selv om den resulterende delmengden av dataene er fullstendig kjønnsbalansert, vil den fortsatt være skjev på forskjellige måter (f.eks. Etnisk eller alder). I realiteten ville det være vanskelig å eliminere alle disse feilene fullstendig.

Hvis en person bruker bare fem sekunder på å lese hver av de en milliard setningene i AI-treningsdata, vil det ta 159 år å teste dem alle - og det forutsetter viljen til å jobbe hele dagen og natten, uten lunsjpauser.

Alternativ?

Derfor er det urealistisk å kreve at alle opplæringsdatasettene er objektive før AI-systemer er bygget. Slike høye krav krever vanligvis at”AI” betegner en homogen klynge av matematiske modeller og algoritmiske tilnærminger.

Faktisk krever forskjellige AI-oppgaver helt forskjellige typer systemer. Og å undervurdere dette mangfoldet fullstendig, maskerer de virkelige problemene forbundet med, for eksempel, veldig forvrengt data. Dette er uheldig, da det betyr at andre løsninger på datapåvirkningsproblemet blir forsømt.

For eksempel kan skjevheter i et trent maskinoversettelsessystem reduseres betydelig hvis systemet er tilpasset etter at det har blitt trent på et stort, uunngåelig partisk datasett.

Dette kan gjøres ved å bruke et mye mindre, mindre forvirret datasett. Derfor kan de fleste dataene være svært partiske, men et trent system er ikke nødvendig. Dessverre blir disse metodene sjelden diskutert av de som utvikler retningslinjer og juridiske rammer for AI-forskning.

Hvis AI-systemer bare forverrer eksisterende sosiale ubalanser, er det mer sannsynlig at de fraråder enn å fremme positiv sosial endring. Hvis AI-teknologiene vi i økende grad bruker på daglig basis, var langt mindre partiske enn vi er, kan de hjelpe oss med å gjenkjenne og konfrontere våre egne lurer fordommer.

Det er selvfølgelig det vi skal strebe etter. Derfor trenger AI-designere å tenke mye mer nøye på de sosiale implikasjonene av systemene de lager, mens de som skriver om AI trenger å forstå dypere hvordan AI-systemer faktisk er designet og bygget.

For hvis vi virkelig nærmer oss en teknologisk idyll eller en apokalypse, ville førstnevnte være å foretrekke.

Victoria Vetrova

Anbefalt: