Hva Skjer Med Kunstig Intelligens? Analyse Av 16 625 Arbeider De Siste 25 årene - Alternativ Visning

Innholdsfortegnelse:

Hva Skjer Med Kunstig Intelligens? Analyse Av 16 625 Arbeider De Siste 25 årene - Alternativ Visning
Hva Skjer Med Kunstig Intelligens? Analyse Av 16 625 Arbeider De Siste 25 årene - Alternativ Visning

Video: Hva Skjer Med Kunstig Intelligens? Analyse Av 16 625 Arbeider De Siste 25 årene - Alternativ Visning

Video: Hva Skjer Med Kunstig Intelligens? Analyse Av 16 625 Arbeider De Siste 25 årene - Alternativ Visning
Video: Kunstig intelligens: Fantastisk eller farlig? | NTNU Kveld 2024, Kan
Anonim

Stort sett alt du hører om kunstig intelligens i dag kommer fra dyp læring. Denne kategorien av algoritmer arbeider med statistikk for å finne mønstre i data, og har vist seg å være ekstremt kraftige når det gjelder å etterligne menneskelige ferdigheter, for eksempel vår evne til å se og høre. I veldig liten grad kan det til og med etterligne vår evne til å resonnere. Disse algoritmene støtter Google Search, Facebook Newsfeed, Netflix anbefalingsmotor og former bransjer som helsevesen og utdanning.

Hvordan dyp læring utvikler seg

Til tross for at dyp læring praktisk talt på egenhånd brakte kunstig intelligens til publikum, representerer det bare et lite glimt i menneskehetens historiske oppgave å gjengi sin egen intelligens. Det har vært i spissen for dette søket i mindre enn et tiår. Hvis vi legger til side hele historien til dette området, er det lett å forstå at det snart også kan forsvinne.

De plutselige opp- og nedturene ved forskjellige metoder har lenge preget AI-forskning, sa han. Det har vært intens konkurranse mellom forskjellige ideer hvert tiår. Deretter, fra tid til annen, vender bryteren og hele samfunnet begynner å gjøre en ting.

Våre kolleger i MIT Technology Review ønsket å visualisere disse problemene og startene. For dette formål vendte de seg til en av de største databasene med åpne vitenskapelige artikler kjent som arXiv. De lastet ned utdrag fra til sammen 16.625 artikler som er tilgjengelige i AI-seksjonen til og med 18. november 2018, og sporet opp ordene som ble nevnt gjennom årene for å se hvordan feltet har utviklet seg.

Gjennom analysen deres dukket det opp tre viktige trender: skiftet mot maskinlæring på slutten av 90-tallet og begynnelsen av 2000-tallet, økningen i populariteten til nevrale nettverk som begynte på begynnelsen av 2010-tallet, og økningen i forsterkningslæring de siste årene.

Salgsfremmende video:

Men først, noen få advarsler. For det første dateres arXiv-seksjonen med AI tilbake til 1993, og uttrykket "kunstig intelligens" stammer fra 1950-tallet, så databasen i seg selv representerer bare de endelige kapitlene i feltets historie. For det andre representerer dokumentene som legges til databasen hvert år bare en brøkdel av arbeidet som gjøres på dette området for øyeblikket. ArXiv tilbyr imidlertid en utmerket ressurs for å identifisere noen av de viktigste forskningstrendene og for å se dragkampen mellom forskjellige ideologiske leirer.

Maskinlæringsparadigmet

Det største skiftet forskerne fant var flyttingen fra kunnskapsbaserte systemer mot begynnelsen av 2000-tallet. Slike datasystemer er basert på ideen om at det er mulig å kode all menneskelig kunnskap i et regelverk. I stedet henvendte forskere seg til maskinlæring, den overordnede kategorien av algoritmer som inkluderer dyp læring.

Blant de 100 nevnte ordene reduserte de som er assosiert med kunnskapsbaserte systemer - "logikk", "begrensninger" og "regel". Og de relatert til maskinlæring - "data", "nettverk", "ytelse" - vokste mest.

Årsaken til denne endringen i været er veldig enkel. På 80-tallet fikk kunnskapsbaserte systemer popularitet blant fans, takket være spenningen rundt ambisiøse prosjekter som prøvde å gjenskape sunn fornuft i maskiner. Men da disse prosjektene brettet ut, sto forskerne overfor en stor utfordring: For mange regler måtte kodes for at systemet kunne gjøre noe nyttig. Dette førte til økte kostnader og betydelig redusert pågående prosesser.

Svaret på dette problemet er maskinlæring. I stedet for å kreve at folk manuelt koder hundretusener av regler, programmerer denne tilnærmingen maskiner for å automatisk trekke ut disse reglene fra en bunke med data. På samme måte har dette feltet beveget seg fra kunnskapsbaserte systemer og henvendt seg til forbedring av maskinlæring.

Boomen i nevrale nettverk

Innenfor det nye paradigmet for maskinlæring skjedde ikke overgangen til dyp læring over natten. I stedet har en analyse av nøkkelbegrep vist at forskere har testet mange metoder i tillegg til nevrale nettverk, de viktigste mekanismene for dyp læring. Andre populære metoder inkluderte Bayesian-nettverk, supportvektormaskiner og evolusjonsalgoritmer, som alle bruker forskjellige tilnærminger for å finne mønstre i data.

I løpet av 1990- og 2000-tallet var det sterk konkurranse mellom disse metodene. Så, i 2012, førte et dramatisk gjennombrudd til en annen værendring. Under den årlige ImageNet-konkurransen for å fremskynde fremgangen i datasyn oppnådde en forsker ved navn Jeffrey Hinton, sammen med kolleger fra University of Toronto, den beste nøyaktigheten til bildegjenkjenning med en feil på litt over 10%.

Den dype læringsteknikken han brukte har gitt en ny bølge av forskning, først i visualiseringssamfunnet og deretter utover. Etter hvert som flere og flere forskere begynte å bruke den for å oppnå imponerende resultater, har populariteten til denne teknikken, sammen med populariteten til nevrale nettverk, fått skyrocket.

Veksten av forsterkningslæring

Analysen viste at det noen få år etter dypt lærings storhetstid har skjedd et tredje og siste skifte i AI-forskning.

I tillegg til de forskjellige maskinlæringsmetodene, er det tre forskjellige typer: veiledet læring, uovervåket læring og forsterkende læring. Overvåket læring, som innebærer å mate merkede data til maskinen, er den mest brukte og har også de mest praktiske applikasjonene i dag. I løpet av de siste årene har imidlertid forsterkningslæring, som etterligner dyrs læringsprosess gjennom gulrøtter og pinner, straff og belønning, ført til en rask økning i referanser i arbeidene.

Ideen i seg selv er ikke ny, men den har ikke fungert på mange tiår. "Veiledede læringsspesialister lo av spesialistene til forsterkning," sier Domingos. Men som med dyp læring, bragte et vendepunkt plutselig metode frem.

Det øyeblikket kom i oktober 2015, da DeepMinds AlphaGo, trent med forsterkning, beseiret verdensmesteren i det eldgamle spillet. Virkningen på forskningsmiljøet var øyeblikkelig.

De neste ti årene

MIT Technology Review gir bare det siste øyeblikksbildet av konkurransen blant ideer som kjennetegner AI-forskning. Imidlertid illustrerer det inkonsekvensen i jakten på duplisering av etterretning. "Det er viktig å forstå at ingen vet hvordan de skal løse dette problemet," sier Domingos.

Mange av metodene som har vært i bruk i 25 år dukket opp på samme tid på 1950-tallet og klarte ikke å matche utfordringene og suksessene for hvert tiår. Nevrale nettverk toppet for eksempel på 60-tallet og litt på 80-tallet, men døde nesten før de gjenvunnet sin popularitet takket være dyp læring.

Hvert tiår har med andre ord sett dominansen til en annen teknikk: nevrale nettverk på slutten av 50- og 60-tallet, forskjellige symbolforsøk på 70-tallet, kunnskapsbaserte systemer på 80-tallet, Bayesiske nettverk på 90-tallet, referansevektorer i null og nevrale nettverk igjen på 2010-tallet.

2020-årene vil ikke være annerledes, sier Domingos. Dette betyr at epoken med dyp læring snart kan være over. Men hva som vil skje videre - en gammel teknikk i en ny prakt eller et helt nytt paradigme - dette er gjenstand for heftig kontrovers i samfunnet.

Ilya Khel

Anbefalt: