All Vår Kunnskap Om Kunstig Intelligens Er Bare Villfarelse - Alternativt Syn

Innholdsfortegnelse:

All Vår Kunnskap Om Kunstig Intelligens Er Bare Villfarelse - Alternativt Syn
All Vår Kunnskap Om Kunstig Intelligens Er Bare Villfarelse - Alternativt Syn

Video: All Vår Kunnskap Om Kunstig Intelligens Er Bare Villfarelse - Alternativt Syn

Video: All Vår Kunnskap Om Kunstig Intelligens Er Bare Villfarelse - Alternativt Syn
Video: UiT Sivilingeniør i kunstig intelligens 2024, Kan
Anonim

Kanskje en av de vanskeligste testene av maskinintelligens var sjakkspillet som fant sted for snart 20 år siden mellom Deep Blue-datamaskinen og verdenssjakkmesteren Garry Kasparov. Bilen vant. For øyeblikket er serien av spill i det logiske spillet go avsluttet, der AI AlphaGo fra DeepMind (eier av Google) og den legendariske go-mesteren fra Kina Li Si Dol konkurrerte. I fire av de fem kampene vant maskinen, og viste sin overlegenhet over mennesket i dette spillet. Det utrolig komplekse spillet mellom menneskelig og AI viser at maskinintelligens har utviklet seg veldig sterkt i løpet av denne tiden. Det ser ut til at den skjebnesvangre dagen, når maskiner virkelig blir smartere enn mennesker, nå er nærmere enn noen gang. Imidlertid ser det ut til at mange ikke forstår det i det hele tatt, men heller tar feil med konsekvensene som kan vente oss i fremtiden.

Vi undervurderer noen svært alvorlige og til og med farlige konsekvenser av utviklingen av kunstig intelligens. I fjor utgav SpaceX medstifter, Elon Musk, en uttalelse der han uttrykte bekymring for mulig mulig slaveri av verden av kunstig intelligens, som igjen førte til en enorm mengde kommentarer fra både tilhengere og motstandere av denne oppfatningen.

Image
Image

For en så grunnleggende revolusjonerende fremtid som kan vente oss, er det overraskende at det i dag er så mange uenigheter om det i det hele tatt vil skje og hva det til slutt vil vise seg å være. Det er spesielt rart å benekte de utrolige fordelene vi kan få av å skape en virkelig smart AI, selvfølgelig, med tanke på alle mulige risikoer. Alle disse spørsmålene er utrolig vanskelige å få svarene du trenger, siden AI, i motsetning til andre oppfinnelser av menneskeheten, virkelig kan "forynge" denne menneskeheten eller fullstendig ødelegge den.

Nå er det vanskelig å forstå hva man skal tro og hva man kan håpe på. Imidlertid, takket være pionerer innen informatikk, nevrologer og teoretikere for AI-utvikling, begynner et klart bilde sakte å rydde opp. Nedenfor er en liste over de vanligste misforståelsene og mytene om kunstig intelligens.

Vi vil aldri lage AI med humanoid intelligens

Virkeligheten antyder i sin tur at vi allerede har datamaskiner som samsvarer med og til og med overgår menneskelige evner i noen områder. Ta sjakk eller det samme spillet, handle på børser, eller rollen som en virtuell samtalepartner. Datamaskiner og algoritmer som styrer dem, blir bare bedre over tid, og det er bare et spørsmål om tid til de blir like menneskelige evner.

Kampanjevideo:

Image
Image

New York University-forsker Gary Marcus sa en gang at "nesten alle" som jobber med AI, tror at maskiner en dag vil overgå oss:

"Den eneste striden mellom tilhengere og skeptikere er tidspunktet for denne hendelsen."

Futurister som Ray Kurzweil tror dette kan skje de neste tiårene, mens andre sier at det vil ta flere århundrer.

AI-skeptikere er ikke overbevisende i bevisene deres om at etableringen av kunstig intelligens som noe unikt og veldig lik en ekte levende menneskelig hjerne i teknologisk henseende, er et sted utenfor virkeligheten. Hjernen vår er også en maskin. Biologisk maskin. Den eksisterer i samme verden og overholder de samme fysiske lover som alt annet. Og over tid vil vi fullt ut finne ut hele prinsippet om arbeidet.

AI vil ha bevissthet

Det er enighet om at maskinintelligens vil være bevisst. Det vil si at AI vil tenke på samme måte som et menneske gjør. I tillegg mener noen kritikere, som Microsoft medstifter, Paul Allen, at på grunn av en ufullstendig teoretisk base som beskriver mekanismene og prinsippene for selvbevissthet, har vi ennå ikke opprettet engang generell kunstig intelligens, det vil si intelligens som er i stand til å utføre intellektuelle oppgaver som en person kan takle. I følge Murray Shanahan, assisterende professor ved Institutt for kognitiv robotikk ved Imperial College London, bør vi imidlertid ikke sidestille de to.

Image
Image

"Selvbevissthet er absolutt et veldig interessant og viktig emne for forskning, men jeg tror ikke at selvbevissthet skal være en obligatorisk egenskap for menneskelig kunstig intelligens," sier Shanahan.

"I det store og hele bruker vi begrepet" selvbevissthet "bare for å indikere flere psykologiske og kognitive egenskaper som vanligvis er knyttet til en person."

Det er mulig å forestille seg en veldig smart bil som mangler en eller flere av disse egenskapene. En dag vil vi kunne bygge en virkelig utrolig intelligent AI, men samtidig blott for evnen til selvbevissthet, samt subjektiv og bevisst forståelse av verden rundt oss. Shanahan bemerker at forening av intelligens og selvbevissthet i maskinen fremdeles vil være mulig, men vi må ikke overse det faktum at dette er to helt separate konsepter fra hverandre.

Og selv om en av variantene av "Turing Test", der en maskin viste at den ikke er forskjellig fra en person, ble bestått med hell, betyr ikke dette i det hele tatt at denne maskinen har bevissthet. Fra vårt (menneskelige) synspunkt kan avansert kunstig intelligens virke for oss som noe som har selvbevissthet, men selve maskinen vil ikke være mer bevisst på seg selv enn den samme steinen eller kalkulatoren.

Vi burde ikke være redd for AI

I januar i år delte Facebook-grunnlegger Mark Zuckerberg sine tanker om hvordan vi ikke skulle være redd for AI, og la til at denne teknologien kan gi enorme fordeler over hele verden. Sannheten er at han bare har delvis rett. Vi vil virkelig kunne høste fantastiske fordeler med AI til vår disposisjon (fra selvkjørende biler til nye funn innen medisin), men ingen kan garantere at enhver anvendelse av AI vil være gunstig.

Et svært intelligent system vil kanskje vite alt som er nødvendig for visse oppgaver (for eksempel å løse en kompleks global økonomisk situasjon eller hacking av fiendens datasystemer), men utenfor høyspesialiserte oppgaver er potensialet til AI fremdeles helt uklart og derfor potensielt farlig. For eksempel er DeepMinds system spesialisert i spillet go, men det har ingen evne (og grunn) til å utforske områder utenfor dette riket.

Flamme datavirus, hvis oppgave var å spore landene i Midt-Østen

Image
Image

Mange av disse systemene kan utgjøre alvorlige sikkerhetsrisikoer. Et godt eksempel er det kraftige og svært listige Stuxnet-viruset, en militarisert orm opprettet av USA og israelsk militær for å infiltrere og angripe iranske atomkraftverk. Bare dette ondsinnede programmet smittet på en eller annen måte (ved et uhell eller med vilje) et av de russiske atomkraftverkene.

Et annet eksempel er Flame-viruset, utviklet for målrettet cyberspionasje i Midt-Østen. Det er lett å forestille seg hvordan de "fremtidige versjonene" av Stuxnet og Flame-virusene uavhengig vil gå utover sine tildelte oppgaver og være i stand til å infisere nesten hele infrastrukturen i et land. Og de vil gjøre det veldig stille og umerkelig.

Kunstig superintelligens vil være for smart til å gjøre feil

Richard Luzmore, matematiker, kunstig intelligensforsker og grunnlegger av robotselskapet Surfing Samurai Robots, mener at de fleste AI-dommedagsscenarier ser usannsynlige ut, fordi de alle er bredt basert på hva AI en dag vil si, “Jeg forstår at ødeleggelse folk er en feil i programkoden min, men jeg må fortsatt følge oppgaven."

Image
Image

Luzmore mener at hvis AI oppfører seg i henhold til dette scenariet, vil det møte logiske motsetninger som vil stille spørsmål ved hele den akkumulerte kunnskapsbasen og til slutt vil føre til sin egen bevissthet om sin dumhet og ubrukelighet.

Forskeren mener også at de menneskene som sier at "AI bare vil gjøre det som er inkludert i programmet" tar feil, akkurat som de menneskene som en gang sa de samme ordene, men mot datamaskiner, erklærer at datasystemer aldri vil ha universalitet.

Peter McIntyre og Stuart Armstrong, begge ved Institute for the Future of Humanity ved Oxford University, er i sin tur uenige i denne oppfatningen og argumenterer for at AI-oppførsel vil være obligatorisk og i stor grad rettferdiggjort av programkoden. Forskere tror ikke at AI aldri vil gjøre feil, eller tvert imot vil være for dumt til å forstå nøyaktig hva vi vil ha fra dem.

"Per definisjon er kunstig superintelligens (ISI) en agent hvis intelligens mange ganger vil overgå menneskehetens beste hoder på nesten alle områder," sier McIntyre.

"Han vil definitivt forstå hva vi vil ha fra ham."

McIntyre og Armstrong tror at AI bare vil utføre de oppgavene den ble programmert for, men hvis den på en eller annen måte utvikler seg alene, vil den mest sannsynlig prøve å finne ut hvor mye dens handlinger vil avvike fra menneskelige oppgaver og iboende i den. lover.

McIntyre sammenligner menneskers fremtidige situasjon med musene. Mus har et kraftig instinkt for å finne mat og ly, men målene deres er ofte i konflikt med en person som ikke vil se dem i hjemmet sitt.

"Som vår kunnskap om mus og deres ønsker, kan også superintelligenssystemet vite alt om oss og vite hva vi vil, men samtidig vil det være helt likegyldig for våre ønsker."

Enkel løsning eliminerer AI-kontrollproblemet

Som vist i filmen "From the Machine" vil det være veldig vanskelig å kontrollere AI, som vil være mye smartere enn oss

Image
Image

Hvis vi antar at vi en dag vil skape superintelligens som vil være smartere enn mennesker, så må vi møte et alvorlig problem, kontrollproblemet. Futurister og kunstig intelligenssteoretikere har ennå ikke klart å forklare hvordan vi kan administrere og inneholde ISI etter opprettelsen. Det er også uklart hvordan vi kan sikre at han vil være vennlig mot mennesker. Mer nylig foreslo forskere ved Georgia Institute of Technology (USA) naivt at AI kan lære og absorbere menneskelige verdier og kunnskap om sosiale normer ved ganske enkelt å lese enkle eventyr. Ja, ja, enkle barns eventyr og historier som foreldre leser for oss i barndommen. Men i virkeligheten vil alt vise seg å være mye mer komplisert enn alt dette.

"Det er foreslått mange såkalte" løsninger "for kontroll av kunstig intelligens," sier Stuart Armstrong.

Et eksempel på slike løsninger kan være å programmere ISI på en slik måte at den hele tiden prøver å behage eller behage en person. Et alternativ vil være å integrere begreper som kjærlighet eller respekt i kildekoden. Og for å unngå en slik utvikling av scenariet, ifølge hvilket AI kan forenkle alle disse konseptene og oppfatte denne verden gjennom prismen til disse superforenklede konseptene, bare dele den opp i svart og hvitt, kan den programmeres til å forstå og akseptere intellektuelt, kulturelt og sosialt mangfold.

De tre lovene om robotikk opprettet av Isaac Asimov passer perfekt inn i begrepet fiksjon, men i virkeligheten trenger vi noe mer omfattende for å løse problemet med kontroll

Image
Image

Dessverre er disse løsningene for enkle og ser ut som et forsøk på å passe all kompleksiteten av menneskelige liker og misliker innenfor rammen av en generell definisjon eller et konsept, eller et forsøk på å tilpasse hele kompleksiteten av menneskelige verdier til ett ord, uttrykk eller idé. For eksempel, prøv å passe innenfor dette rammeverket en konsistent og adekvat definisjon for noe som "respekt".

”Man skal selvfølgelig ikke tro at slike enkle alternativer er helt ubrukelige. Mange av dem har en god grunn til å tenke, og kanskje stimulerer søket etter en løsning på det ultimate problemet, sier Armstrong.

"Men vi kan ikke stole bare på dem uten mer komplekst arbeid, uten tydelig forskning og ser etter konsekvensene av å bruke visse løsninger."

Vi vil bli ødelagt av kunstig superintelligens

Ingen kan garantere at AI en dag vil ødelegge oss, akkurat som ingen med sikkerhet kan si at vi ikke vil være i stand til å finne måter å kontrollere og bruke AI til våre egne formål. Som den amerikanske eksperten på kunstig intelligens Eliezer Yudkowski en gang sa: "AI kan ikke elske eller hate deg, men du er laget av atomer som den kan bruke til noe annet."

Oxford-filosofen Nick Bostrom skriver i sin bok "Superintelligence: Ways, Dangers and Strategies" at ekte superintelligens en dag vil kunne realisere seg selv, noe som vil gjøre det farligere enn noen oppfinnelse som noen gang er skapt av mennesket. Fremtredende moderne tenkere som Elon Musk, Bill Gates og Stephen Hawking (hvorav mange mener at "AI kan være den verste feilen i menneskets historie") er mer sannsynlig enige i denne oppfatningen og slår allerede alarm.

Peter McIntyer mener at for de fleste oppgavene som superintelligens kan stille for seg selv, vil folk se ut som en ekstra lenke.

“AI vil en dag kunne konkludere - og det bør bemerkes at den vil beregne dette ganske riktig - at folk ikke vil bruke det til å maksimere lønnsomheten til et bestemt selskap for enhver pris, uavhengig av konsekvensene for forbrukere, miljø og levende vesener. Derfor vil han ha et stort insentiv til å utvikle en plan og strategi, takket være at en person ikke vil være i stand til å forstyrre løsningen av oppgaven, ved å endre den eller til og med slå av AI."

I følge MacIntyer, hvis AIs oppgaver er direkte motsatte av våre egne, vil det gi ham gode grunner til ikke å la oss stoppe ham. Og hvis vi vurderer at intelligensnivået hans vil være mye høyere enn vårt, vil det virkelig være veldig, veldig vanskelig å stoppe ham, hvis det er mulig.

Imidlertid er det umulig å si noe med sikkerhet akkurat nå, og ingen vil kunne si hvilken form for AI vi må håndtere og hvordan det kan true menneskeheten. Som Elon Musk en gang sa, kan AI faktisk brukes til å kontrollere, spore og kontrollere andre AI-er. Og kanskje menneskelige verdier og første vennlighet til mennesker vil bli introdusert i det.

Kunstig superintelligens vil være vennlig

Filosofen Immanuel Kant mente at intelligens er sterkt forbundet med moralens prinsipper. I sitt arbeid Singularity: A Philosophical Analysis tok nevrolog David Chalmers til grunn den berømte ideen til Kant og prøvde å bruke den til å analysere dannelsen av kunstig superintelligens.

Image
Image

“Hvis prinsippene beskrevet i denne artikkelen er korrekte, bør man sammen med den skarpe utviklingen av AI forvente en skarp utvikling av moralske prinsipper. Videreutvikling vil føre til fremveksten av ISI-systemer, som vil ha supermorale og superintelligens. Derfor bør vi bare forvente velvillige egenskaper fra deres side."

Sannheten er at ideen om en avansert AI med moralske prinsipper og eksepsjonell dyd ikke holder vann. Som Armstrong påpeker, er verden full av smarte krigsforbrytere. Intellekt og moral i en person er for eksempel ikke knyttet sammen på noen måte, derfor setter forskeren spørsmålstegn ved at et slikt forhold vil eksistere i andre former for intelligens.

“Smarte mennesker som oppfører seg umoralsk, har en tendens til å skape mye mer problemer og smerte enn sine mindre intelligente kolleger. Intelligens gir dem muligheten til å være mer sofistikerte i sine dårlige og ikke gode handlinger, sier Armstrong.

McIntyre forklarer at en agents evne til å oppnå en gitt oppgave ikke har noe med den oppgaven å gjøre.

“Vi vil være veldig heldige hvis AI-ene våre blir mer moralske, ikke bare smarte. Å stole på flaks er selvfølgelig det siste i denne saken, men kanskje er det flaks som vil avgjøre vår posisjon i fremtiden, sier forskeren.

Risikoen forbundet med AI og robotikk er den samme

Dette er en spesielt vanlig misforståelse som brukes i media så vel som i Hollywood-storfilmer som The Terminator.

Image
Image

Hvis kunstig superintelligens som Skynet, for eksempel, virkelig ønsker å ødelegge hele menneskeheten, er det lite sannsynlig at han vil bruke paramilitære androider med maskingevær i hver hånd. Hans listige og effektive tankegang vil tillate ham å forstå at det ville være mye mer praktisk å bruke, for eksempel en ny type biologisk pest eller for eksempel en eller annen nanoteknologisk katastrofe. Eller kanskje han bare tar og ødelegger atmosfæren på planeten vår. AI er potensielt farlig, ikke bare fordi utviklingen er nært knyttet til utviklingen av robotikk. Årsaken til hans potensielle fare ligger i metodene og midlene han kan erklære sin tilstedeværelse for verden gjennom.

AI omtalt i science fiction gjenspeiler fremtiden vår

Uten tvil har forfattere og science fiction-forfattere i mange år brukt science fiction-miljøet som et springbrett for å spekulere i vår virkelige fremtid, men den faktiske etableringen av ISI og de virkelige konsekvensene av dette er fortsatt utenfor horisonten til vår virkelige kunnskap. Dessuten tillater en slik kunstig og tydelig umenneskelig art av AI oss ikke engang å anta med noen nøyaktighet hva denne AI faktisk vil være.

Image
Image

I de fleste sci-fi-verk er AI så nær mennesker som mulig.

“Før oss er faktisk et helt spektrum av de mest forskjellige mulige typer sinn. Selv om vi bare tar den menneskelige formen. For eksempel er tankene dine langt fra identiske med din nabo. Men denne sammenligningen er bare en dråpe i havet av alt mulig mangfold av sinn som kan eksistere, sier McIntyre.

De fleste sci-fi-fiksjoner er selvfølgelig opprettet primært for å fortelle en historie, i stedet for å være så vitenskapelig overbevisende som mulig. Hvis det var helt omvendt (vitenskap er viktigere enn handlingen), ville det å være uinteressant å følge slike arbeider.

“Tenk deg hvor kjedelig alle disse historiene ville være, der AI, uten selvbevissthet, evnen til å glede seg, elske eller hate, ødelegger alle mennesker praktisk talt uten motstand for å nå sitt mål, som for øvrig kanskje heller ikke er veldig interessant for leseren eller betrakteren,”kommenterer Armstrong.

AI vil ta jobbene våre

AIs evne til å automatisere prosessene vi gjør manuelt, og dets potensial til å ødelegge hele menneskeheten er ikke det samme. I følge Martin Ford, forfatter av Rise of the Robots: Technology and the Threat of a Jobless Future, blir disse begrepene ofte prøvd å bli sammenlignet og kombinert til en sammenhengende helhet. Selvfølgelig er det flott at vi prøver å forutse konsekvensene av å skape AI så langt, men bare hvis denne innsatsen ikke distraherer oss fra problemene vi kan møte i løpet av et par tiår hvis vi ikke gjør noe. Og et av de viktigste slike problemene er masseautomatisering.

Image
Image

Få vil hevde at en av utfordringene med kunstig intelligens vil være å finne en måte å automatisere mange jobber på, fra fabrikkjobber til noen funksjonærer. Noen eksperter spår at halvparten av alle jobber, i det minste i USA, kan automatiseres i nær fremtid.

Men dette betyr slett ikke at vi ikke vil kunne akseptere slike endringer. Det er viktig å forstå at ønsket om å avlaste seg fra unødvendig fysisk og psykisk stress på jobben faktisk har vært en drøm for vår menneskelige art i lang tid.

“I løpet av noen tiår vil AI virkelig erstatte mennesker i mange jobber. Og dette er faktisk veldig bra. For eksempel vil selvkjørende biler erstatte lastebilførere, som igjen ikke bare vil redusere kostnadene for frakt av varer, men også redusere kostnadene for varene selv. Hvis du jobber som lastebilsjåfør, forblir du selvfølgelig den siste, men det er mer sannsynlig at alle andre i dette tilfellet får lønn. Og jo mer disse pengene kan spares, jo mer kan disse pengene brukes på andre varer og tjenester som folk vil være engasjert i på sine arbeidsplasser."

Mest sannsynlig vil kunstig intelligens søke etter nye måter for velvære og mate mennesker mens de gjør andre ting. Fremskritt innen AI-utvikling vil være ledsaget av suksesser på andre områder. Spesielt i industrien. I fremtiden vil alt dette sannsynligvis i stor grad forenkle enn komplisere tilfredsstillelsen av våre grunnleggende behov.

Anbefalt: