I et blogginnlegg snakket DeepMind, et datterselskap av Google, om et eksperiment med testing av kunstig intelligensmodeller for generalisering og abstrakte tenkeevner. Eksperter har utviklet en generator som stiller spørsmål basert på begrepet progresjon, fargeegenskaper, former eller størrelser, og deres forhold. Lignende oppgaver finnes i IQ-tester for mennesker.
IQ-testnøyaktighet
De fleste av modellene svarte på spørsmålene med 75% nøyaktighet. På denne måten fant forskerne en sterk sammenheng mellom oppgaveutførelse og evnen til å identifisere underliggende abstraksjoner. De klarte å øke effektiviteten ved å trene algoritmer for å forklare svarene sine, for å vise hvilke relasjoner og egenskaper som må vurderes i et bestemt spørsmål.
Noen modeller er imidlertid dårlige til å "overføre" de studerte forholdene til nye egenskaper, for eksempel hvis hun trente på å identifisere logiske sekvenser med hensyn til fargen på objekter, og i oppgaven kreves det å etablere et forhold etter deres form.
Teamet fant at hvis det nevrale nettverket korrekt ekstrapolerte sin kunnskap om forhold til en ny verdikombinasjon, økte nøyaktigheten til oppgavene til 87%. Ved feil ekstrapolering falt den til 32%.
Den detaljerte fremdriften for forskningen og resultatene ble publisert av utviklerne i artikkelen.
Salgsfremmende video:
I februar 2018 trente utviklerne av Facebook AI Research også kunstig intelligens for å forklare handlingene sine. Generelt lar denne teknikken spore logikken i å løse et problem og identifisere problemer som forhindrer deg i å takle det.