Hvorfor Er Kunstig Intelligens å Dømme Kriminelle Farlige? - Alternativt Syn

Innholdsfortegnelse:

Hvorfor Er Kunstig Intelligens å Dømme Kriminelle Farlige? - Alternativt Syn
Hvorfor Er Kunstig Intelligens å Dømme Kriminelle Farlige? - Alternativt Syn

Video: Hvorfor Er Kunstig Intelligens å Dømme Kriminelle Farlige? - Alternativt Syn

Video: Hvorfor Er Kunstig Intelligens å Dømme Kriminelle Farlige? - Alternativt Syn
Video: Кунстиг интеллигент роботфильм (: 2024, Kan
Anonim

Kunstig intelligens er allerede med på å bestemme fremtiden din på en eller annen måte. Når du søker etter noe på en søkemotor, kan du bruke en tjeneste som Netflix, eller ellers vil en bank vurdere om du er kvalifisert for pantelån. Men hva skjer hvis kunstig intelligens må avgjøre om du er skyldig eller ikke, i retten? Merkelig nok kan dette allerede skje i noen land. Nylig ble amerikanske høyesteretter John Roberts spurt om han kunne forestille seg en dag da "smarte maskiner, kontrollert av kunstig intelligens, vil hjelpe til med å finne bevis eller til og med å ta rettslige avgjørelser." Han svarte: "Denne dagen har allerede kommet, og han hjelper rettsmyndighetene betydelig i prosessen."

Kanskje refererte Roberts til den nylige saken om Eric Loomis, som ble dømt til seks års fengsel på anbefaling av hemmelig programvare fra et privat selskap. Loomis, som allerede hadde en kriminell historie og ble dømt for å rømme fra politiet i en stjålet bil, hevder nå at hans rett til prosedyre ble krenket, da verken han eller hans representanter var i stand til å gjennomgå eller utfordre anbefalingsalgoritmen.

Rapporten ble utarbeidet av Compas-programvaren, som selges av Notrpointe til skip. Programmet legemliggjør en ny trend innen AI-forskning: å hjelpe dommere med å ta “bedre” (eller i det minste mer datadrevne) avgjørelser i retten.

Mens de spesifikke detaljene i Loomis-saken forblir lukket, inneholder den absolutt diagrammer og tall som definerer Loomis 'liv, oppførsel og sannsynlighet for tilbakefall. Disse inkluderer alder, rase, kjønnsidentitet, vaner, nettleserhistorikk og noen målinger av hodeskallen. Ingen vet mer presist.

Det er kjent at aktor i saken fortalte dommeren at Loomis demonstrerte "en høy risiko for tilbakefall, vold, prosedyre før rettssaken." Dette er standard når det gjelder straffutmåling. Dommeren var enig og sa til Loomis at "Compas identifiserte ham som en person med høy risiko for samfunnet."

Høyesterett i Wisconsin dømte Loomis og la til at Compas-rapporten tilførte verdifull informasjon til hans avgjørelse, men bemerket at uten ham avsa han den samme dommen. Selvfølgelig vil du ikke kunne sjekke dette helt sikkert. Hva slags kognitive skjevheter kan det være når et allmektig "smart" system som Compas er involvert i å gi råd til dommere om hva de skal gjøre?

Ukjent bruk

Kampanjevideo:

La oss være ærlige, det er ikke noe "ulovlig" med hva Wisconsin-domstolen gjorde - dette er bare et eksempel. Andre domstoler kan og vil gjøre det samme.

Dessverre vet vi ikke i hvilken grad AI og andre algoritmer brukes i straffeutmålingen. Det antas at noen domstoler "tester" systemer som Compas i lukkede rettssaker, men kan ikke kreve et partnerskap. Det er også en oppfatning at flere AI-oppstart utvikler slike smarte systemer.

Image
Image

Imidlertid begynner eller slutter bruken av AI i lovgivningen med en setning, det begynner med en etterforskning. Storbritannia har allerede utviklet VALCRI-systemet, som utfører tidkrevende analysearbeid på få sekunder - snike seg gjennom tonnevis av data som tekster, laboratorierapporter og politidokumenter for å markere ting som kan kreve nærmere etterforskning.

UK West Midlands Police vil teste VALCRI i løpet av de neste tre årene ved hjelp av anonyme data som inneholder over 6,5 millioner poster. En lignende test utføres av politiet i Antwerpen i Belgia. Tidligere har imidlertid AI og deep learning-prosjekter som involverer massive datasett vært problematiske.

Fordeler for de få

Teknologien har gitt mange nyttige hjelpemidler til rettssaler, fra kopimaskiner til DNA-ekstraksjon fra fingeravtrykk til sofistikerte overvåkningsteknikker. Men dette betyr ikke at noen teknologi er en forbedring.

Mens bruk av AI i etterforskning og overbevisning potensielt kan spare tid og penger, gir det akutte problemer. En Compas-rapport fra ProPublica gjorde det klart at svarte feilaktig ble ansett av programmet som mer tilbakevendende enn hvite. Selv de mest sofistikerte AI-systemene kan arve rasemessige og kjønnsforstyrrelser fra de som lager dem.

Dessuten, hva er poenget med å flytte beslutningstaking (i det minste delvis) på spørsmål som er unike for mennesker til en algoritme? Det er en viss vanskelighet i USA når juryer prøver sine jevnaldrende. Juridiske standarder har aldri vært målestokken, så disse juryprosessene regnes som de mest demokratiske og effektive overbevisningssystemene. Vi gjør feil, men over tid samler vi kunnskap om hvordan vi ikke skal gjøre dem, og foredler systemet.

Compas og lignende systemer representerer en svart boks i rettssystemet. Det skulle ikke være slike. Juridiske systemer avhenger av kontinuitet, gjennomsiktighet og informasjon. Samfunnet ønsker ikke et system som oppfordrer løpet til å bygge AI-oppstart som lager raske, billige og eksklusive løsninger. En hastig laget AI vil være forferdelig.

En oppdatert open source-versjon av Compas vil være en forbedring. Men først må standardene for rettssystemet heves før vi begynner å skifte ansvar til fordel for algoritmer.

ILYA KHEL

Anbefalt: