Ekte Kunstig Intelligens Kan Skapes Ved å Løse Tre Hovedproblemer - - Alternativ Visning

Innholdsfortegnelse:

Ekte Kunstig Intelligens Kan Skapes Ved å Løse Tre Hovedproblemer - - Alternativ Visning
Ekte Kunstig Intelligens Kan Skapes Ved å Løse Tre Hovedproblemer - - Alternativ Visning

Video: Ekte Kunstig Intelligens Kan Skapes Ved å Løse Tre Hovedproblemer - - Alternativ Visning

Video: Ekte Kunstig Intelligens Kan Skapes Ved å Løse Tre Hovedproblemer - - Alternativ Visning
Video: Fremtidsjobbene: Episode. 3 - Kunstig intelligens 2024, April
Anonim

På en konferanse om dyp maskinlæring i London forrige måned ble ett tema reist flere ganger: viktigheten av å forstå hva vi virkelig gjør. Mens selskaper som Google fortsetter å påstå at vi alle lever i det første århundret av AI, når maskinlæring nettopp begynner å oppdage nye aktivitetsfelt (som tale og bildegjenkjenning), er de som virkelig står i forkant av AI-forskning, prøver å understreke at det er mange flere utfordringer som må løses før den sanne alderen til AI ankommer. Selv om vi allerede har digitale assistenter som kan snakke som datamaskiner i sci-fi-filmer, betyr ikke dette at vi seriøst er i nærheten av å skape ekte kunstig intelligens.

Til slutt er alle problemene som står i veien for å skape ekte AI, som følger: i mengden informasjon som må investeres i dem; i vår manglende evne til å lage en AI som kan like like takle flere oppgaver samtidig; Vel, faktisk har vi ingen anelse om hvordan slike systemer faktisk skal fungere. Teknologier for maskinlæring er allerede i stand til å gjøre fantastiske ting i 2016, men disse tingene kan noen ganger være vanskelige å forklare, selv for skaperne selv. For ikke å snakke om hvor mye penger det hele koster. La oss se nærmere på kompleksiteten som AI-ingeniører står overfor i dag.

Informasjon først, deretter AI

Vi forstår alle perfekt at AI trenger å ha tilgang til informasjon for å studere verden rundt oss, men vi forstår ikke helt nøyaktig hvor mye informasjon som er nødvendig. I følge Neil Lawrence, professor ved Department of Machine Learning ved Sheffield University og medlem av AI-teknologiutviklingsteamet på Amazon, vil disse systemene trenge hundrevis og tusenvis av ganger mer informasjon enn et menneske for å lære å forstå verden og gjenkjenne visse objekter.

"Hvis du ser på alle bransjer og områder der ingeniører har oppnådd en viss suksess i maskin dyp læring, kan du øyeblikkelig se hvor mye informasjon som er brukt for å løse alle disse problemene," sier Lawrence, og siterer som et eksempel de samme tale- og bildegjenkjenningsteknologiene.

Selskaper som Google og Facebook har tilgang til fjell av informasjon, som selvfølgelig gjør det lettere å lage forskjellige nyttige verktøy (de samme stemmesøkteknologiene for Android, for eksempel).

For Lawrence er informasjon nå hva kull var i de første årene av den industrielle revolusjonen. Som et eksempel siterer Lawrence Thomas Newcomen, en engelskmann som opprettet i 1712 (faktisk 60 år før etableringen av en slik maskin av James Watt) en primitiv versjon av dampmaskinen drevet av kull. Newcomens oppfinnelse var ikke perfekt. Sammenlignet med Watt sin maskin, viste det seg å være ineffektiv og for dyr å bruke. For det meste kunne den bare brukes i kullgruver, hvor mengden drivstoff som trengs utgjorde for maskinens mangler.

Et eksempel på Facebooks åpne teknologi for gjenkjenning

Salgsfremmende video:

Image
Image

Lawrence mener det kan være hundrevis av disse nykommerne rundt om i verden som utvikler sine egne maskinlæringsmodeller. Det er kanskje virkelig revolusjonerende ideer blant dem, men uten at deres teknologier får tilgang til enorme databaser med informasjon om dem, vil det sannsynligvis ingen noen gang vite. Store selskaper som Google, Facebook og Microsoft - de er de veldig moderne "kullgruvearbeiderne". De har tilgang til en ubegrenset mengde informasjon, slik at de kan lage ineffektive maskinlæringssystemer og deretter forbedre dem. Små startups har riktignok gode ideer, men de vil aldri oppnå noe som er verdt uten tilgang til informasjonsbaser.

Dette problemet blir enda tydeligere når du ser på områder der det blir enda vanskeligere å få informasjonen du trenger. Ta for eksempel et helsevesen, der AI kan brukes til å utføre oppgaver relatert til maskinsyn - finne og gjenkjenne ondartede svulster på røntgenstråler, for eksempel. Men tilgangen til slike data er vanligvis veldig begrenset. Ifølge Lawrence er den viktigste begrensende faktoren den nåværende oppfatningen av mennesker om at det er uetisk for tredjepart å få tilgang til denne typen informasjon. Ifølge Lawrence ligger hovedproblemet ikke i å finne måter å spre informasjon på, men i hvordan man kan effektivisere maskinlæringssystemer og lære å jobbe med mindre informasjon. Og disse forbedringene i effektivitet, ifølge forskeren, kan ta de samme 60 årene.som tilfellet var med Watt's bil.

Spesialisering er en blindvei. AI må kunne multitaske

En annen sentral utfordring som utviklingen av virkelig dype maskinlæringsmodeller står overfor, er det faktum at alle våre nåværende AI-systemer faktisk er veldig stumme. I følge Rya Hudsell, forsker ved Googles DeepMind, kan disse systemene faktisk læres å utføre kattegjenkjenningsoppgaver, å spille og samtidig være veldig effektive i å utføre disse oppgavene. Men "for øyeblikket i verden er det ikke et eneste fullverdig nevralt nettverk og metoder som vil trene det til å gjenkjenne bilder, spille Space Invaders og overveie musikk." I sin tur er det nevrale nettverk som er det sentrale grunnlaget for å lage dype læringssystemer for maskiner.

Og dette problemet er mye mer betydelig enn det kan virke ved første øyekast. Da DeepMind i februar i fjor kunngjorde at de hadde bygget et system som kunne spille 49 Atari-spill, kunne det virkelig sees på som en stor prestasjon. Men til slutt viste det seg at når systemet er ferdig med passering av ett spill, hver gang det må omskoleres for å spille et annet. Hudsell bemerker at vi ikke kan lære systemet å spille alle spillene samtidig, siden reglene for hvert vil blande seg med hverandre og til slutt forstyrre oppgaven. Hver gang du må lære maskinen på nytt, og hver gang systemet "glemmer" hvordan du spiller det forrige spillet.

”For å skape generell kunstig intelligens, trenger vi noe som kan hjelpe oss å lære en maskin å utføre flere oppgaver samtidig. Nå kan vi ikke engang trene dem til å spille spill, sier Hadsell.

Løsningen kan skjules i de såkalte progressive nevrale nettverkene - ved å kombinere uavhengige dype læringssystemer til en enkelt helhet for mer effektivt arbeid med informasjon. I en publisert vitenskapelig artikkel som tok for seg dette problemet, snakket Hadsell og hennes forskerteam om hvordan deres progressive nevrale nettverk var i stand til å tilpasse seg i spillet Pong, forholdene der hver gang var noe forskjellige (i ett tilfelle ble fargene endret; i det andre var de forvirrede kontroll), mye raskere enn det "vanlige" nevrale nettverket, som måtte trenes på nytt hver gang.

Grunnprinsippet i et progressivt nevralt nettverk

Image
Image

Metoden har vist seg å være veldig lovende og har nylig blitt brukt til å stille inn robotarmer, og fremskynde læringsprosessen fra en uke til bare en dag. Dessverre har denne metoden også sine begrensninger. Hudsell bemerker at i tilfelle av progressive nevrale nettverk, kan ikke læringsprosessen reduseres til å bare legge til nye oppgaver i minnet. Hvis du fortsetter å kombinere slike systemer sammen, vil du før eller siden komme til "en for kompleks modell som vil være umulig å spore." I dette tilfellet vil vi snakke om et annet nivå. Nivået som forskjellige oppgaver generelt vil bli utført på samme måte. Å bygge en AI som er i stand til å designe stoler og lage en AI på nivået av menneskelig intelligens som er i stand til å skrive dikt og løse differensiallikninger, er ikke det samme.

AI kan kalles AI hvis vi kan vise hvordan det fungerer

En annen skremmende hindring er å forstå hvordan kunstig intelligens vil komme til konklusjonene når man løser problemer. Nevrale nettverk er vanligvis ugjennomtrengelige for observatøren. Til tross for at vi vet hvordan de samles inn og hvordan informasjon flyter gjennom dem, forblir beslutningene de tar vanligvis utenfor forklaring.

Et utmerket eksempel på dette problemet er Virginia Tech-eksperimentet. Forskerne har laget et sporingssystem for det nevrale nettverket som registrerer hvilke piksler i et digitalt bilde datamaskinen begynner å analysere fra. Forskerne viste bilder av det nevrale nettverket av soverommet og stilte spørsmålet: "Hva henger på vinduene?" I stedet for å se direkte på vinduene begynte maskinen å analysere bildene fra gulvet. En seng kom inn i synsfeltet hennes, og bilen svarte: "det er gardiner på vinduene." Svaret viste seg å være riktig, men bare fordi systemet ble "lært" å jobbe med en begrenset mengde data. Basert på bildet som ble vist, konkluderte nevrale nettverket med at hvis bildet viser et soverom, så sannsynligvis burde det være gardiner på vinduene. Så når en detalj kom inn i hennes synsfelt,som vanligvis finnes i et hvilket som helst soverom (i dette tilfellet en seng), analyserte hun ikke bildet videre. Hun har kanskje ikke engang sett denne sengen, hun så gardinene. Det er logisk, men veldig overfladisk og tiltrukket. I tillegg har mange soverom ikke gardiner!

Sporingsteknologi er bare ett verktøy som kan hjelpe oss å forstå hva som ber en maskin ta en bestemt beslutning, men det er bedre metoder som kan legge til mer logikk og dyp analyse til maskinlæringssystemer. Murray Shanahan, professor i kognitiv robotikk ved Imperial College London, mener at den beste løsningen på problemet er å revidere det gammeldagse paradigmet til AI - symbolsk AI, eller GOFAI (Good Old-Fashioned Artificial Intelligence, "god gammel kunstig intelligens"). Dets paradigme koker ned til det faktum at absolutt enhver oppgave kan deles inn i grunnleggende logiske elementer, der hvert ord bare er et komplekst sett med enkle symboler. Ved å kombinere disse symbolene - i handlinger, hendelser, gjenstander og så videre - kan tenkning syntetiseres. Bare tenk at slik utvikling ble utført i dagene da datamaskiner var gigantiske kasser på størrelse med et rom, og arbeidet med magnetbånd (arbeidet begynte på midten av 50-tallet og fortsatte til slutten av 80-tallet av forrige århundre).

Shanahans forslag er å kombinere GOFAI-symbolbeskrivelser og dyp læringsteknologier. Dette vil tillate ikke bare å mate slike systemer ny informasjon og vente på at de skal utlede bestemte mønstre for atferd og problemløsing basert på denne informasjonen, Shanahans tilnærming er designet for å gi slike systemer utgangspunkt for å forstå verden. Dette vil etter hans mening ikke bare løse problemet med AI-åpenhet, men også problemet med overførbar læring beskrevet av Hadsell.

"Det er trygt å si at Breakout er veldig lik Pong, fordi det i begge tilfeller brukes" plattformer "og" baller ", men ut fra menneskets oppfatning og logikk er de to helt forskjellige spill. Og det er praktisk talt umulig å trekke paralleller mellom dem. Det er som å prøve å kombinere strukturen til atomet og strukturen i hele solsystemet."

Shanahan og kollegene ved Imperial College London jobber for tiden med en ny metode for maskinlæring (som de kaller dyp symbolsk stimulert læring) og har publisert noen små eksperimenter. Metoden er fremdeles i sin spede begynnelse, og derfor er det vanskelig å si ennå om den skalerer til større systemer som arbeider med forskjellige typer data. Likevel er det fortsatt sjanser for at denne metoden vil vokse til noe mer. Tross alt har dyp læring alltid vært den mest kjedelige og kjedelige delen av AI-utviklingen til forskere fant en måte å raskt få tilgang til data og skaffet seg massiv prosessorkraft. Ganske mulig,det er på tide å gå tilbake til gamle AI-paradigmer og prøve dem i et nytt miljø.

NIKOLAY KHIZHNYAK