Folk Stoler Ikke På Kunstig Intelligens. Hvordan Fikser Jeg Det? - Alternativt Syn

Innholdsfortegnelse:

Folk Stoler Ikke På Kunstig Intelligens. Hvordan Fikser Jeg Det? - Alternativt Syn
Folk Stoler Ikke På Kunstig Intelligens. Hvordan Fikser Jeg Det? - Alternativt Syn

Video: Folk Stoler Ikke På Kunstig Intelligens. Hvordan Fikser Jeg Det? - Alternativt Syn

Video: Folk Stoler Ikke På Kunstig Intelligens. Hvordan Fikser Jeg Det? - Alternativt Syn
Video: Kunstig Intelligens - Behandling af sygdomme 2024, April
Anonim

Kunstig intelligens kan allerede forutsi fremtiden. Politiet bruker det til å lage et kart som viser når og hvor kriminalitet kan oppstå. Legene bruker det til å forutsi når en pasient kan få hjerneslag eller hjerteinfarkt. Forskere prøver til og med å gi AI en fantasi slik at den kan forutse uventede hendelser.

Mange beslutninger i livet vårt krever gode spådommer, og AI-agenter er nesten alltid bedre på dem enn mennesker. For alle disse teknologiske fremskrittene mangler vi likevel tillit til spådommene som kunstig intelligens gir. Folk er ikke vant til å stole på AI og foretrekker å stole på menneskelige eksperter, selv om disse ekspertene tar feil.

Image
Image

Hvis vi vil ha kunstig intelligens til fordel for mennesker, må vi lære å stole på den. For å gjøre dette må vi forstå hvorfor mennesker er så iherdige i å nekte å stole på AI.

Stol på Dr. Robot

IBMs forsøk på å introdusere et superdataprogram for onkologer (Watson for Oncology) mislyktes. AI har lovet å gi høykvalitetsbehandlingsanbefalinger for 12 kreftformer, og står for 80% av verdens tilfeller. Til dags dato har mer enn 14 000 pasienter mottatt anbefalinger basert på beregningene hans.

Men da legene først møtte Watson, fant de seg i en ganske vanskelig situasjon. På den ene siden, hvis Watson ga behandlingsretningslinjer som samsvarte med deres egne meninger, så ikke legeprofesjonen mye verdi i AI-anbefalingene. Superdatamaskinen fortalte dem ganske enkelt hva de allerede visste, og disse anbefalingene endret ikke selve behandlingen. Dette kan ha gitt legene trygghet og tillit til sine egne beslutninger. Men IBM har ennå ikke bevist at Watson faktisk øker kreftoverlevelsesraten.

Kampanjevideo:

Image
Image

På den annen side, hvis Watson kom med anbefalinger som var i strid med ekspertuttalelse, konkluderte legene med at Watson var inhabil. Og maskinen kunne ikke forklare hvorfor behandlingen ville fungere fordi maskinlæringsalgoritmene var for kompliserte til at mennesker kunne forstå. Følgelig førte dette til enda mer mistillit, og mange leger ignorerte rett og slett AI-anbefalingene og stolte på sin egen erfaring.

Som et resultat kunngjorde IBM Watsons sjefmedisinske partner, MD Anderson Cancer Center, nylig at de avlyste programmet. Det danske sykehuset sa også at de forlot programmet etter at det oppdaget at onkologer var uenige med Watson ved to av tre anledninger.

Problemet med Watson onkologi var at legene rett og slett ikke stolte på ham. Folks tillit avhenger ofte av vår forståelse av hvordan andre mennesker tenker og vår egen erfaring, som bygger tillit til deres mening. Dette skaper en psykologisk følelse av sikkerhet. AI er derimot relativt nytt og uforståelig for mennesker. Det tar beslutninger basert på et sofistikert analysesystem for å identifisere potensielle skjulte mønstre og svake signaler fra store datamengder.

Selv om det kan forklares i tekniske termer, er beslutningsprosessen for AI vanligvis for kompleks for de fleste å forstå. Samhandling med noe vi ikke forstår kan forårsake angst og skape en følelse av tap av kontroll. Mange forstår rett og slett ikke hvordan og med hva AI fungerer, fordi det skjer et sted bak skjermen, i bakgrunnen.

Av samme grunn er de mer klar over tilfeller der AI er galt: tenk på Google-algoritmen som klassifiserer folk i farger som gorillaer; Microsoft chatbot som ble nazist på under en dag; Tesla-kjøretøy i autopilotmodus som resulterer i dødsulykke. Disse uheldige eksemplene har fått uforholdsmessig medieoppmerksomhet og fremhevet dagsordenen om at vi ikke kan stole på teknologi. Maskinlæring er ikke 100% pålitelig, delvis fordi mennesker designer den.

En splittelse i samfunnet?

Følelsene kunstig intelligens fremkaller går dypt inn i menneskets natur. Forskere gjennomførte nylig et eksperiment der de undersøkte mennesker som så filmer om kunstig intelligens (fantasi) om temaet automatisering i hverdagen. Det viste seg at uansett om AI ble portrettert på en positiv eller negativ måte, rett og slett å se på en filmisk representasjon av vår teknologiske fremtid polarisere deltakernes holdninger. Optimister blir enda mer optimistiske, og skeptikere stenger enda mer.

Dette antyder at folk er partisk mot AI basert på sitt eget resonnement, en dyptliggende tendens til bekreftelsesforstyrrelse: tendensen til å søke eller tolke informasjon på en slik måte som å bekrefte eksisterende konsepter. Ettersom AI i økende grad blir omtalt i media, kan det fremme dype splittelser i samfunnet, en splittelse mellom de som bruker AI og de som avviser den. En dominerende gruppe mennesker kan få en stor fordel eller et handicap.

Tre veier ut av AI-tillitskrisen

Heldigvis har vi noen tanker om hvordan vi skal takle tillit til AI. Erfaring med AI alene kan dramatisk forbedre folks holdninger til denne teknologien. Det er også bevis for at jo oftere du bruker bestemte teknologier (for eksempel Internett), jo mer stoler du på dem.

En annen løsning kan være å åpne den svarte boksen med maskinlæringsalgoritmer og få dem til å fungere mer gjennomsiktig. Bedrifter som Google, Airbnb og Twitter publiserer allerede gjennomsiktighetsrapporter om offentlige forespørsler og avsløringer. Denne typen praksis i AI-systemer vil hjelpe folk å få den nødvendige forståelsen av hvordan algoritmer tar beslutninger.

Forskning viser at å involvere mennesker i AI-beslutningsprosesser vil også øke tilliten og gjøre det mulig for AI å lære av menneskelig erfaring. Studien fant at folk som fikk muligheten til å endre algoritmen litt, følte seg mer fornøyde med resultatene av arbeidet, mest sannsynlig på grunn av en følelse av overlegenhet og evnen til å påvirke fremtidige resultater.

Vi trenger ikke å forstå det intrikate indre arbeidet til AI-systemer, men hvis vi gir folk enda litt informasjon og kontroll over hvordan disse systemene implementeres, vil de ha mer selvtillit og ønske om å omfavne AI i deres daglige liv.

Ilya Khel

Anbefalt: