Japanske Forskere Lærte Datamaskinen å Lese Sinn. Videoeksempler - Alternativ Visning

Japanske Forskere Lærte Datamaskinen å Lese Sinn. Videoeksempler - Alternativ Visning
Japanske Forskere Lærte Datamaskinen å Lese Sinn. Videoeksempler - Alternativ Visning

Video: Japanske Forskere Lærte Datamaskinen å Lese Sinn. Videoeksempler - Alternativ Visning

Video: Japanske Forskere Lærte Datamaskinen å Lese Sinn. Videoeksempler - Alternativ Visning
Video: Vi åbner og drikker en japansk sodavand 2024, Kan
Anonim

Med utviklingen av systemer for preferansegjenkjenning og målrettet annonsering, tilbyr tilbud om å se videoer og venner på sosiale nettverk brukeren illusjonen om at datamaskinen leser tankene. Men for bedre eller verre beveger vi oss faktisk mot datamaskiner og systemer som faktisk leser tankene våre. En ny studie av utviklere fra Japan er uten overdrivelse et absolutt gjennombruddstrinn i denne retningen.

Et team fra Kyoto University bestemte seg for å bruke et virtuelt nevralt nettverk for å prøve å lese og tolke tanker i et levende nevralt nettverk, i den menneskelige hjernen. Selv om det høres ganske vanvittig ut, er eksperimentet ikke fundamentalt nytt, og japanerne er ikke den første gruppen som jobber i denne retningen. Forskjellen mellom Kyoto-teamet og deres forgjengere er at tidligere teknikker rekonstruerte bilder fra pikslene og grunnleggende geometriske former. En ny teknologi, kalt "dyp bildekonstruksjon", beveger seg imidlertid lenger enn binære piksler og gir forskere muligheten til å avkode bilder med flere lag med farge og struktur.

"Hjernen vår behandler visuell informasjon ved hierarkisk å trekke ut forskjellige nivåer av egenskaper eller komponenter med forskjellige kompleksiteter," sa Yukiyasu Kamitani, en av forskerne som er involvert i studien, i et intervju. "Disse nevrale nettverk eller AI-modeller kan brukes som en tilnærming til den hierarkiske strukturen til den menneskelige hjernen."

Studien varte i 10 måneder. Tre eksperimentelle frivillige, i forskjellige lengder, så på bilder av tre forskjellige kategorier: naturlige objekter (for eksempel dyr eller mennesker), kunstige geometriske former og bokstaver i alfabetet.

Image
Image

I dette tilfellet ble aktiviteten til hjernen registrert mens du så på bildene. Bildet ble deretter fjernet og motivet ble bedt om å tenke på bildet han bare så på. Samtidig ble hjerneaktivitet igjen registrert, og dataene ble sammenlignet med de forrige, hvoretter resultatene ble lagt inn i et virtuelt nevralt nettverk, som senere brukte dem til å tolke hjerneaktivitet som visse tanker.

Hos mennesker (og faktisk hos alle pattedyr), er den visuelle cortex lokalisert på baksiden av hjernen, i den occipital lobe, som er over lillehjernen. Aktivitet i den visuelle cortex ble målt ved bruk av funksjonell magnetisk resonansimaging (fMRI), og transformert det resulterende bildet til hierarkiske funksjoner i et virtuelt nevralt nettverk.

Med utgangspunkt i et tilfeldig bilde optimaliserer det genererte nettverket pikselverdiene til dette bildet mange ganger. Som et resultat ligner de nevrale nettverksfunksjonene til inngangsbildet de som er dekodet fra hjerneaktivitet.

Salgsfremmende video:

Det er viktig å merke seg at den eksperimentelle modellen antok bruken av ikke bare naturbilder (mennesker eller natur), men også antok generering og anerkjennelse av kunstige strukturer og geometriske former:

Som du ser av videoen, er det mye vanskeligere for systemet å avkode bildet i en situasjon der en person ikke ser på bildet, men bare tenker på det han så. Imidlertid er dette tilsynelatende helt naturlig: ikke hver hjerne husker hver eneste detalj i bildet nettopp sett, for eksempel en side fra en bok. Minnene våre er vanligvis veldig uskarpe og uklar.

På dette stadiet av studien beholder bildene som er rekonstruert fra hjerneaktivitet bare en viss likhet med de originale bildene sett av deltakerne i eksperimentet, de ser i utgangspunktet ut som minimalt detaljerte klumper med piksler. Imidlertid er dette bare begynnelsen på banen og over tid vil gjenkjennelsesnøyaktigheten bli mer og mer, selv om vi selv med sikkerhet kan si hvilket objekt motivet tenker på.

Alt dette åpner for fantastiske perspektiver for utviklere. Se for deg "øyeblikkelig modellering" når du bare forestiller deg et objekt i hodet ditt - et kunstkonsept eller en detalj av en mekanisme - og datamaskinen med en gang, uten å trykke på noen knapper, automatisk skaper det nødvendige tredimensjonale objektet.

Image
Image

Eller kunne AI gå mye lenger, registrere hjerneaktiviteten din mens du sover, og deretter gjenskape alle drømmene dine i en 3D-verden?

Det er utallige bruksområder for denne utviklingen, så det japanske teamet jobber hardt med alt. Imidlertid er det i alle våre felles interesser at tankelesing skrider frem gradvis og nøye, ettersom teknologi bærer mange farer.

Anbefalt: