Farlig Menneskehet: Hvorfor Trenger Vi Intelligent Kunstig Intelligens? - Alternativ Visning

Innholdsfortegnelse:

Farlig Menneskehet: Hvorfor Trenger Vi Intelligent Kunstig Intelligens? - Alternativ Visning
Farlig Menneskehet: Hvorfor Trenger Vi Intelligent Kunstig Intelligens? - Alternativ Visning

Video: Farlig Menneskehet: Hvorfor Trenger Vi Intelligent Kunstig Intelligens? - Alternativ Visning

Video: Farlig Menneskehet: Hvorfor Trenger Vi Intelligent Kunstig Intelligens? - Alternativ Visning
Video: Kunstig Intelligens: Vil Robotterne Overtage Jorden? 2024, Kan
Anonim

Da Norbert Wiener, faren til kybernetikk, skrev boken The Human Uses of Human Beings i 1950, var vakuumrør fremdeles de viktigste elektroniske byggesteinene, og det var faktisk bare noen få datamaskiner på jobb. Imidlertid så han for seg fremtiden vi ser nå med enestående presisjon, og tok bare mindre detaljer.

Før noen annen filosof av kunstig intelligens, innså han at AI ikke bare vil etterligne - og erstatte - mennesker i mange typer intellektuell aktivitet, men også vil endre mennesker i prosessen. "Vi er bare boblebad i en elv med stadig rennende vann," skrev han. "Vi er ikke noe som bare lever, vi er modeller som forevrer seg selv."

For eksempel, når mange fristende muligheter oppstår, er vi villige til å betale og akseptere de små kostnadene ved å drive en bedrift for å få tilgang til nye muligheter. Og veldig snart blir vi avhengige av nye verktøy, vi mister muligheten til å eksistere uten dem. Alternativer blir påkrevd.

Dette er en veldig gammel evolusjonshistorie, og mange av kapitlene derfra er godt kjent for oss. De fleste pattedyr kan syntetisere sitt eget vitamin C, men fruktspisende primater har mistet denne innebygde evnen. De selvrepeterende mønstrene vi kaller mennesker, er nå avhengige av klær, bearbeidet mat, vitaminer, sprøyter, kredittkort, smarttelefoner og internett. Og i morgen, hvis ikke i dag, fra kunstig intelligens.

Wiener forutså flere problemer med denne tilstanden som Alan Turing og andre tidlige AI-optimister stort sett oversett. Den virkelige trusselen, sa han, var:

… er at slike maskiner, selv om de er hjelpeløse i seg selv, kan brukes av mennesker eller sperre av mennesker for å øke kontrollen over resten av løpet, eller politiske ledere kan prøve å ta kontroll over deres befolkning ved å bruke politiske metoder i stedet for maskinene selv, så smale og likegyldige til mennesket, som om de ble oppfunnet mekanisk.

Det er klart, disse farene er nå veldig relevante.

I media, for eksempel, gjør innovasjoner innen digital lyd og video oss i stand til å betale en liten pris (i øynene til lydfiler og kinogjengere) for å bevege oss bort fra analoge formater, og til gjengjeld få en ekstremt enkel - for enkel - måte å spille innspillinger med nesten ingen begrensninger.

Salgsfremmende video:

Image
Image

Men det er en enorm skjult kostnad. Orwells departement for sannhet har blitt en reell mulighet. AIs teknikker for å lage tilnærmet ikke skillebare falske "poster" gjør verktøyene vi har brukt for undersøkelser foreldet de siste 150 årene.

Vi må bare forlate den korte epoken med fotografiske bevis og vende tilbake til den gamle verdenen der menneskets minne og tillit var gullstandarden. Eller vi kan utvikle nye metoder for forsvar og angrep i kampen om sannheten. Et av de mest spennende nylige eksemplene er det faktum at det er mye billigere å ødelegge et rykte enn å tjene og beskytte det samme omdømmet. Wiener så dette fenomenet veldig bredt: "I det lange løp vil det ikke være noen forskjell mellom å bevæpne deg selv og bevæpne fienden." Informasjonstiden har også blitt en epoke med desinformasjon.

Hva vi kan gjøre? Nøkkelen er Wiener samme observasjon av at "disse maskinene" er "seg selv hjelpeløse." Vi lager verktøy, ikke kolleger, og den virkelige trusselen er at vi ikke ser forskjellen.

Kunstig intelligens i sin nåværende form er parasittisk på menneskelig intelligens. Han tar veldig ubevisst besittelse av alt det menneskelige skaperne har skapt og tegner mønstre - inkludert våre mest hemmelige vaner. Disse maskinene har foreløpig ikke mål eller strategier, er ikke i stand til selvkritikk og innovasjon, de studerer bare databasene våre, uten egne tanker og mål.

De er, som Wiener sier, hjelpeløse ikke i den forstand at de er lenket eller immobilisert, nei, de er ikke agenter i det hele tatt - de har ikke evnen til å "handle ut fra årsaker", slik Kant ville sagt det.

På lang sikt er "sterk AI" eller generell kunstig intelligens i prinsippet mulig, men ikke ønskelig. Den enda mer begrensede AI som er mulig i praksis i dag, vil ikke være ond. Men det utgjør en trussel - delvis fordi det kan ta feil av en kraftig AI.

Hvor sterk er kunstig intelligens i dag?

Gapet mellom dagens systemer og sci-fi-systemer som oversvømmer den populære fantasien er fremdeles stort, selv om mange mennesker, både amatører og profesjonelle, har en tendens til å undervurdere den. La oss ta en titt på IBMs Watson, som kan være respektabel i dag.

Denne superdatamaskinen er resultatet av en ekstremt stor FoU-prosess (forskning og utvikling) som involverte mange mennesker og designintelligens gjennom mange århundrer, og den bruker tusenvis av ganger mer energi enn den menneskelige hjernen. Hans seier i Jeopardy! var en ekte triumf muliggjort av formelbegrensningene i Jeopardy! s regler, men selv disse reglene måtte revideres for at han skulle delta. Jeg måtte gi opp litt allsidighet og legge menneskeheten til å gjøre showet.

Watson er et dårlig selskap, til tross for misvisende annonser fra IBM som lover AI-samtaleevne på begge nivåer, og å gjøre Watson til et troverdig mangesidig agent ville være som å gjøre en kalkulator til Watson. Watson kan være en god databehandlingssak for et slikt middel, men snarere et lite hjerne eller amygdala snarere enn et sinn - i beste fall et subsystem med spesialformål som fungerer som støtte, men ikke på langt nær et system for planlegging og formulering av mål basert på den samtaleopplevelsen som er oppnådd.

Hvorfor vil vi lage en tenkende og kreativ agent fra Watson? Kanskje Tirings strålende idé - den berømte Turing-testen - lokket oss inn i en felle: vi ble besatt av å skape i det minste illusjonen av en ekte person som satt foran en skjerm, og omgå den "illevarslende dalen."

Faren er at siden Turing presenterte oppgaven sin - som først og fremst var en oppgave å lure dommerne - har skaperne av AI prøvd å oppnå den med morsomme humanoiddukker, "tegneserie" -versjoner som vil sjarmere og avvæpne de uinnvidde. ELIZA av Joseph Weisenbaum, den aller første chatbotten, var et godt eksempel på å skape en slik illusjon, men med en ekstremt enkel algoritme som kunne overbevise folk om at de hadde oppriktige og oppriktige samtaler med andre mennesker.

Han var bekymret for hvor enkelt folk er villige til å tro på dette. Og hvis vi fikk en ting fra den årlige Lebner Prize Limited Turing Test, er det at selv de smarteste menneskene som ikke har kunnskaper i dataprogrammering lett faller for disse enkle triksene.

Holdningen til mennesker i AI til slike teknikker varierer fra fordømmende til givende, og enigheten er at disse triksene ikke er veldig dypt, men kan være nyttige. Et holdningsskifte som ville være veldig velkomment, ville være en oppriktig innrømmelse av at dukkemalte androider er falske reklamer som bør fordømmes, ikke oppmuntres.

Hvordan kan dette oppnås? Når vi har forstått at mennesker begynner å ta beslutninger om liv og død ved å følge "rådene" til AI-systemer, hvis interne operasjoner nesten er uforståelige, vil vi se en god grunn for de som oppfordrer folk til å stole på slike systemer, til å begynne å stole på normene til moral og lov.

Kunstige intelligenssystemer er veldig kraftige verktøy. Så kraftig at selv eksperter har en god grunn til ikke å stole på sin egen dømmekraft når det er "dommer" representert av disse verktøyene. Men hvis disse brukerne av verktøyene kommer til å dra fordel, økonomisk eller på annen måte, av populariseringen av disse verktøyene, må de sørge for at de vet hvordan de skal gjøre det med fullt ansvar, maksimal kontroll og begrunnelse.

Lisensiering og godkjenning av operatører av slike systemer - akkurat som vi lisenser farmasøyter, kranoperatører og andre fagpersoner hvis feil og feilvurderinger kan ha alvorlige konsekvenser - kanskje, med støtte fra forsikringsselskaper og andre organisasjoner, forplikter oppretterne av AI-systemer til å gå langt ser etter svakhetene og manglene ved produktene deres, og trene også de som skal jobbe med dem.

Man kan forestille seg en slags omvendt Turing-test der dommeren vil bli gjenstand for vurderingen; inntil han finner svakhet, brudd på grenser, hull i systemet, vil han ikke motta lisens. En slik dommer vil kreve seriøs opplæring for å få en sertifisering. Trangen til å tilskrive et objekt en menneskelig evne til å tenke, som vi vanligvis gjør når vi møter en intelligent agent, er veldig, veldig sterk.

Evnen til å motstå trangen til å se noe humanisert er faktisk en merkelig ting. Mange mennesker vil synes å pleie et slikt talent tvilsomt, fordi selv de mest pragmatiske brukerne av systemet tidvis er "vennlige" om verktøyene sine.

Uansett hvor nøye AI-designere velger å eliminere falske "menneskelige" overtoner i produktene sine, bør vi forvente at blomstringen av etiketter, midlertidige løsninger og tålelige forvrengninger av den faktiske "forståelsen" av både systemer og deres operatører. På samme måte som medikamenter med en lang liste over bivirkninger blir annonsert på TV, eller alkohol blir annonsert med en overflod med liten skrift med alle advarsler som loven krever, så utviklere av kunstig intelligens vil overholde loven, men bli sofistikerte i advarsler.

Hvorfor trenger vi kunstig intelligens?

Vi trenger ikke kunstige bevisste midler. Det er en rekke naturbevisste agenter som er tilstrekkelige til å utføre enhver oppgave for profesjonelle og privilegerte personer. Vi trenger smarte verktøy. Verktøy har ingen rettigheter og skal ikke ha følelser som kan bli såret eller misbrukt.

En grunn til ikke å lage kunstige bevisste midler er at selv om de kan bli autonome (og i prinsippet kan de være like autonome, selvforbedrende eller selvskapende som enhver person), skal de ikke - uten spesiell tillatelse - dele med vår naturlige bevisste agenter, vår sårbarhet eller vår dødelighet.

Daniel Dennett, professor i filosofi ved Tufts University, utfordret en gang studenter på et verksted om kunstige midler og autonomi: Gi meg spesifikasjonene til en robot som kan signere en kontrakt med deg - ikke et surrogat som eies av en annen person, men av seg selv. Det er ikke et spørsmål om å forstå årsakene eller manipulere pennen på papiret, men snarere eierskap og velfortjent eierskap til juridisk status og moralsk ansvar. Små barn kan ikke signere slike kontrakter, så vel som funksjonshemmede, hvis juridiske status forplikter dem til å være under vergemål og pålegger foresatte ansvar.

Problemet med roboter som kanskje ønsker å oppnå en slik opphøyet status er at de, i likhet med Superman, er for sårbare til å komme med slike påstander. Hvis de nekter, hva vil da skje? Hva blir straffen for å ha brutt et løfte? Vil de bli innelåst i et bur eller ført fra hverandre? Et fengsel for kunstig intelligens vil ikke være upraktisk med mindre vi først laster opp tørsten etter frihet som ikke kan ignoreres eller deaktiveres av AI selv. Demontering av AI vil ikke drepe informasjonen som er lagret på disken og i programvaren.

Enkelheten med digital registrering og overføring av data - et gjennombrudd som gjorde det mulig for programvare og data å oppnå, faktisk, udødelighet - gjør roboter sårbare. Hvis det ikke virker åpenbart, bør du tenke på hvordan folks moral ville endret seg hvis vi kunne sikkerhetskopiere folk hver uke. Å hoppe av en bro uten gummibånd på søndag etter en fredagskopiering kan være en utslett avgjørelse, da kan du se opptakene om din utidige død senere.

Det er grunnen til at vi ikke skaper bevisste - vi ønsker å skape - humanoide midler, men snarere en helt ny type skapninger, noen orakler, ubevisste, uten frykt for død, uten distraksjon av kjærlighet og hat, uten personlighet: speil av sannhet som nesten helt sikkert vil bli smittet av mennesker løgner.

Menneskelig bruk av mennesker vil snart endres - nok en gang - for alltid, men hvis vi tar ansvar for vår evolusjonære bane, kan vi unngå unødvendige farer.

Ilya Khel

Anbefalt: