Kunstig Intelligens Er Langt Fra Så Smart Som Du Og Elon Musk Tror Det Er - Alternativ Visning

Innholdsfortegnelse:

Kunstig Intelligens Er Langt Fra Så Smart Som Du Og Elon Musk Tror Det Er - Alternativ Visning
Kunstig Intelligens Er Langt Fra Så Smart Som Du Og Elon Musk Tror Det Er - Alternativ Visning

Video: Kunstig Intelligens Er Langt Fra Så Smart Som Du Og Elon Musk Tror Det Er - Alternativ Visning

Video: Kunstig Intelligens Er Langt Fra Så Smart Som Du Og Elon Musk Tror Det Er - Alternativ Visning
Video: Elon Musk on Google DeepMind | Artificial Intelligence! 2024, Kan
Anonim

I mars 2016 var DeepMinds AlphaGo datamaskinalgoritme i stand til å beseire Lee Sedol, den gang verdens beste puzzle go-spiller. Denne begivenheten ble et av de mest avgjørende øyeblikkene i teknologibransjens historie, som på en gang var seieren til IBM Deep Blue-datamaskinen over verdenssjakkmesteren Garry Kasparov, og seieren til Watson-superdatamaskinen fra samme IBM i Jeopardy-quizen for polymater i 2011.

Til tross for disse seirene, så imponerende som de måtte være, handler det mer om treningsalgoritmer og bruk av rå datakraft enn om ekte kunstig intelligens. Tidligere MIT-robotikkprofessor Rodney Brooks, som medstiftet iRobot og senere Rethink Robotics, sier at det å lære en algoritme for å spille et komplekst strategi-puzzle ikke er intelligens. I det minste ikke slik vi forestiller oss det for en person.

Eksperten forklarer at uansett hvor sterk AlphaGo kan vise seg å være i å fullføre oppgaven som er tildelt ham, faktisk er han ikke i stand til noe annet. Dessuten har han satt opp for å kun spille Go på en standard tonehøyde på 19 x 19. I et intervju med TechCrunch snakket Brooks om hvordan han nylig hadde muligheten til å chatte med DeepMind-teamet og finne ut en interessant detalj. På spørsmål om hva som ville skje hvis arrangørene endret størrelse på styret og økte det til 29 x 29 ruter, innrømmet AlphaGo-teamet for ham at selv en liten endring av spillefeltet ville føre til at "vi er ferdige."

“Jeg tror folk ser hvor godt en algoritme gjør en ting, og de ser ut til å tro at den umiddelbart kan gjøre andre like effektivt. Men poenget er at han ikke kan det,”kommenterte Brooks.

Brutto intelligens

I mai i år, i et intervju med Davin Coldway ved TechCrunch Disrupt, bemerket Kasparov at det å utvikle en datamaskin som er i stand til å spille sjakk på verdensnivå, er en ting, men det er en annen å kalle en slik datamaskin ren kunstig intelligens, siden det ikke er det. Det er bare en maskin som bruker all sin datakraft til å løse et problem som det er vant til å gjøre best.

“I sjakk vinner maskiner på grunn av kraften i dyp beregning. De kan bli helt uovervinnelige med en enorm database, veldig rask maskinvare og mer logiske algoritmer. De mangler imidlertid forståelse. De kjenner ikke igjen strategiske mønstre. Maskinene har ingen hensikt,”sa Kasparov.

Salgsfremmende video:

Gil Pratt, administrerende direktør for Toyota Institute, Toyotas divisjon av AI og AI innen hjemmroboter og selvkjørende biler, snakket også med TechCrunch på Robotics Session. Etter hans mening kan frykten vi hører fra et bredt spekter av mennesker, inkludert Elon Musk, som nylig kalte kunstig intelligens "en eksistensiell trussel mot menneskeheten", skyldes ikke annet enn de dystopiske beskrivelsene av verden som science fiction tilbyr oss.

”Våre nåværende dype læringssystemer er bare like gode til å utføre oppgavene sine som vi har designet dem til å være. Men i virkeligheten er de ganske høyt spesialiserte og bittesmå i målestokk. Derfor anser jeg det som viktig hver gang i sammenheng med dette emnet å nevne både hvor gode de er og hvor ineffektive de faktisk er. Og også hvor langt vi er fra det punktet hvor disse systemene kan begynne å utgjøre trusselen som Elon Musk og andre snakker om,”kommenterte Pratt.

Brooks på sin side bemerket på TechCrunch Robotics Session at det er en tendens blant folk generelt å tro at hvis en algoritme er i stand til å takle "X" -oppgaven, så er den tilsynelatende like smart som en person.

“Jeg tror grunnen til at folk, inkludert Elon Musk, gjør denne feilen, er dette. Når vi ser en person som gjør en veldig god jobb med oppgaven som er tildelt ham, forstår vi at han har høy kompetanse i denne saken. Det virker som om folk prøver å bruke samme modell for maskinlæring. Og det er her den største feilen ligger, sier Brooks.

Facebook-administrerende direktør Mark Zuckerberg holdt en direktesending sist søndag, der han også kritiserte Elon Musks kommentarer, og kalte dem "ganske uansvarlige." I følge Zuckerberg vil AI kunne forbedre livene våre betydelig. Musk bestemte seg på sin side for ikke å tie og svarte Zuckerberg at han hadde "begrenset forståelse" om AI. Temaet er ennå ikke avsluttet, og Musk lovet litt senere å svare mer detaljert på angrepene fra kolleger i IT-bransjen.

For øvrig er ikke Musk den eneste som tror at AI kan utgjøre en potensiell trussel. Fysikeren Stephen Hawking og filosofen Nick Bostrom uttrykker også sin bekymring for potensialet for kunstig intelligens til å trenge gjennom menneskets livsførsel. Men mest sannsynlig snakker de om mer generalisert kunstig intelligens. Om hva som studeres i laboratorier som Facebook AI Research, DeepMind og Maluuba, i stedet for den mer spesialiserte AI, den første begynnelsen vi kan se i dag.

Brooks bemerker også at mange av kritikerne av AI ikke engang jobber på dette området, og foreslo at disse menneskene rett og slett ikke forstår hvor vanskelig det kan være å finne en løsning på hvert enkelt problem på dette området.

“Det er faktisk ikke mange som anser AI for å være en eksistensiell trussel. Stephen Hawking, den britiske astrofysiker og astronom Martin Rees … og noen få andre. Ironien er at de fleste av dem har en ting til felles - de jobber ikke engang innen kunstig intelligens, sier Brooks.

"For de av oss som jobber med AI, er det ganske åpenbart hvor vanskelig det kan være å få noe til å fungere på nivået med det ferdige produktet."

AI feilrepresentasjon

En del av problemet kommer også av at vi kaller alt dette for "kunstig intelligens." Sannheten er at denne "intelligensen" overhode ikke ligner menneskelig intelligens, som vanligvis beskrives i oppslagsverk og ordforråd som "evnen til å lære, forstå og tilpasse seg nye situasjoner."

Pascal Kaufman, administrerende direktør i Starmind, en oppstart som hjelper andre selskaper å bruke kollektiv menneskelig intelligens for å finne løsninger på forretningsproblemer, har studert nevrovitenskap i 15 år. Den menneskelige hjernen og datamaskinen, konstaterer Kaufman, fungerer veldig annerledes, og det ville være en åpenbar feil å sammenligne dem.

"Analogien - hjernen fungerer som en datamaskin - er veldig farlig og står i veien for AI-fremgang," sier Kaufman.

Eksperten mener også at vi ikke vil komme videre med å forstå menneskelig intelligens hvis vi vurderer det i teknologiske termer.

”Det er en misforståelse at algoritmer fungerer som den menneskelige hjernen. Folk elsker bare algoritmer, og derfor tror de at hjernen kan beskrives med deres hjelp. Jeg tror dette er grunnleggende galt, legger Kaufman til.

Hvis noe går galt

Det er mange eksempler der AI-algoritmer ikke på langt nær er så smarte som vi pleide å tenke på dem. Og en av de kanskje mest spenstige er AI-algoritmen Tay, opprettet av Microsofts AI systemutviklingsteam og ute av kontroll i fjor. Det tok mindre enn en dag å gjøre boten til en ekte rasist. Eksperter sier at dette kan skje med ethvert AI-system når de blir presentert for dårlige forbilder. I Tay's tilfelle falt hun under påvirkning fra rasistiske og andre krenkende ordforrådsformer. Og siden den ble programmert til å "lære" og "speilatferd", kom den snart ut av forskerenes kontroll.

Utbredt forskning fra Cornell og Wyoming har funnet at det er veldig enkelt å lure algoritmer som er trent for å identifisere digitale bilder. De fant ut at et bilde som så ut som "kryptert tull" for mennesker ble identifisert av algoritmen som et bilde av en eller annen hverdagsgjenstand som en "skolebuss."

I følge en artikkel publisert i MIT Tech Review som beskriver dette prosjektet, er det ikke helt klart hvorfor algoritmen kan lures på den måten som forskere gjorde. Det som ble funnet ut er at folk har lært å gjenkjenne det som står foran dem - enten et selvforsynt bilde, eller et slags uforståelig bilde. Algoritmer, på sin side, å analysere piksler, er lettere å manipulere og lure.

Når det gjelder selvkjørende biler, viser det seg å være mye mer komplisert. Det er noen ting som en person forstår når han forbereder seg på å møte visse situasjoner. Det vil være veldig vanskelig å lære en maskin å gjøre dette. En stor artikkel publisert i en av bilbloggene av Rodney Brooks i januar i år siterer flere eksempler på slike situasjoner, inkludert en som beskriver en selvkjørende bil som nærmer seg et stoppskilt som ligger ved siden av et fotgjengerovergang i byen. helt i begynnelsen som en voksen og et barn står og kommuniserer.

Algoritmen vil mest sannsynlig være innstilt på å vente på at fotgjengere skal krysse veien. Men hva hvis disse fotgjengerne ikke en gang tenkte å krysse veien, da de står og venter på skolebuss? En menneskelig sjåfør i dette tilfellet kunne hulke fotgjengere, som som svar kunne vinket til ham og informert ham om at han kan passere. Et ubemannet kjøretøy i en slik situasjon kan rett og slett sitte fast, uendelig og vente på at folk skal krysse veien, fordi algoritmen ikke har forståelse for så unike menneskelige signaler, skriver Brooks.

Hvert av disse eksemplene viser oss hvor langt vi fremdeles må bevege oss i utviklingen av kunstige intelligensalgoritmer. Hvor godt generaliserte AI-utviklere kan lykkes er fortsatt et spørsmål. Det er ting som en person lett kan takle, men det vil være en skikkelig tortur å lære algoritmen. Hvorfor? Fordi vi mennesker ikke er begrenset i vår læring til et sett med spesifikke oppgaver.

Nikolay Khizhnyak

Anbefalt: