Kan Maskiner Ha Bevissthet, Ifølge Nevrologer? Det Ser Ut Til At Ja - Alternativt Syn

Innholdsfortegnelse:

Kan Maskiner Ha Bevissthet, Ifølge Nevrologer? Det Ser Ut Til At Ja - Alternativt Syn
Kan Maskiner Ha Bevissthet, Ifølge Nevrologer? Det Ser Ut Til At Ja - Alternativt Syn

Video: Kan Maskiner Ha Bevissthet, Ifølge Nevrologer? Det Ser Ut Til At Ja - Alternativt Syn

Video: Kan Maskiner Ha Bevissthet, Ifølge Nevrologer? Det Ser Ut Til At Ja - Alternativt Syn
Video: LES INFOS DE LA NASA SEPTEMBRE 2017 (All Subtitles Languages) 2024, Kan
Anonim

Så mye som regissøren vil få deg til å tro det, er hovedpersonen til Andrew Garlands film Out of the Machine fra 2015 ikke Caleb, en ung programmerer som har til oppgave å evaluere maskinens bevissthet. Nei, hovedpersonen er Ava, en fantastisk humanoid AI, naiv i utseende og mystisk på innsiden. Som de fleste filmer av denne typen, forlater Out of the Machine seeren å svare på spørsmålet selv: Var Ava virkelig bevisst? Samtidig unngår filmen dyktig det tornede spørsmålet som høyprofilerte filmer om temaet AI prøvde å svare på: hva er bevissthet og kan en datamaskin ha det?

Hollywood-produsenter er ikke de eneste som prøver å svare på dette spørsmålet. Etter hvert som maskinintelligens utvikler seg i rasende fart - ikke bare overgår hva mennesker kan gjøre i spill som DOTA 2 og Go, men gjør det uten menneskelig hjelp - blir dette spørsmålet reist igjen i bredere og smalere sirkler.

Vil bevissthet bryte gjennom i biler?

Denne uken publiserte det prestisjetunge tidsskriftet Science en gjennomgang av kognitive forskere Drs Stanislas Dehane, Hokwan Lau og Sid Quider fra French College ved UCLA og PSL Research University. I det sa forskere: ennå ikke, men det er en klar vei fremover.

Årsaken? Bevisstheten er "absolutt beregningsbar", sier forfatterne, fordi den stammer fra spesifikke typer informasjonsbehandling som er muliggjort av hjernens maskinvare.

Det er ingen magisk kjøttkraft, ingen guddommelig gnist - ikke engang en empirisk komponent ("hvordan er det å ha bevissthet?") Kreves for å legge inn bevissthet.

Hvis bevissthet kommer utelukkende fra beregninger i det ene og et halvt kiloorganet vårt, er det bare å oversette biologi til kode å utstyre maskiner med en lignende egenskap.

Kampanjevideo:

Akkurat som dagens kraftige maskinlæringsmetoder er sterkt lånt fra nevrovitenskap, kan vi også oppnå kunstig bevissthet ved å studere strukturene i våre egne hjerner som genererer bevissthet og implementere disse ideene som datalgoritmer.

Fra hjerne til robot

Det er ingen tvil om at AI-feltet har fått et stort løft fra studiet av våre egne hjerner, både i form og funksjon.

For eksempel er dype nevrale nettverk, de arkitektoniske algoritmene som dannet grunnlaget for AlphaGo, modellert på flerlags biologiske nevrale nettverk organisert i hjernen vår.

Forsterkningslæring, en type "læring" der AI lærer av millioner av eksempler, er forankret i hundrevis av hundetreningsteknikk: hvis en hund gjør noe riktig, får den en belønning; ellers må hun gjenta.

Sånn sett virker oversettelse av arkitekturen til menneskelig bevissthet til maskiner som et enkelt skritt mot kunstig bevissthet. Det er bare ett stort problem.

«Ingen i AI jobber med å bygge bevisste maskiner, fordi vi bare ikke har noe å takle. Vi vet bare ikke hva vi skal gjøre, sier Dr. Stuart Russell.

Flerlags bevissthet

Det vanskeligste å overvinne før du begynner å bygge tenkemaskiner, er å forstå hva bevissthet er.

For Dehene og kolleger er bevissthet en flerlags konstruksjon med to”dimensjoner”: C1, informasjon som er lagret ferdig i sinnet, og C2, evnen til å motta og spore informasjon om seg selv. Begge er viktige for bevisstheten og kan ikke eksistere uten hverandre.

La oss si at du kjører bil og et fyrtårn fortsetter for å advare deg om et lavt gjenværende bensinnivå. Oppfatningen av indikatoren er C1, en mental representasjon som vi kan samhandle med: vi merker det, handler (fyller på drivstoff) og snakker om det senere ("Bensin løp ut på nedstigningen, heldig rullet").

"Den første betydningen at vi ønsker å skille oss fra bevisstheten er forestillingen om global tilgjengelighet," forklarer Dehané. Når du blir klar over et ord, forstår hele hjernen din det, det vil si at du kan formidle denne informasjonen gjennom forskjellige modaliteter.

Men C1 er ikke bare et "mentalt album". Denne dimensjonen er en hel arkitektur som gjør at hjernen kan tiltrekke seg flere modaliteter av informasjon fra sansene våre, eller for eksempel fra minner om relaterte hendelser.

I motsetning til underbevisst behandling, som ofte er avhengig av visse “moduler” som er kompetente til å løse et spesifikt sett med oppgaver, er C1 et globalt arbeidsområde som lar hjernen integrere informasjon, ta beslutninger om handling og følge opp.

Med "bevissthet" mener vi en viss fremstilling, på et bestemt tidspunkt, som kjemper for tilgang til det mentale arbeidsområdet og vinner. Vinnerne deles mellom de forskjellige beregningskretsene i hjernen og holdes i sentrum av oppmerksomheten gjennom hele beslutningsprosessen som bestemmer atferd.

C1-bevissthet er stabil og global - alle tilkoblede hjernekretser er involvert, forklarer forfatterne.

For en sofistikert bil som C1 smartbil, er dette det første skrittet mot å løse et forestående problem som lite drivstoff. I dette eksemplet er selve indikatoren et underbevisst signal: når den tennes, forblir alle andre prosesser i bilen uinformert, og bilen - selv når den er utstyrt med de nyeste visuelle prosesseringsverktøyene - løper uten å nøle forbi bensinstasjonen.

Med C1 vil drivstofftanken varsle bilens datamaskin (slik at indikatoren kan komme inn i bilens "bevisste sinn") slik at den i sin tur vil aktivere GPS for å finne nærmeste stasjon.

"Vi tror at maskinen vil oversette dette til et system som vil hente ut informasjon fra alle modulene som er tilgjengelig for den og gjøre den tilgjengelig for andre behandlingsenheter som kan bruke denne informasjonen," sier Dehane. "Dette er den første følelsen av bevissthet."

Metakognisjon

På en måte gjenspeiler C1 sinnets evne til å hente ut informasjon utenfra. C2 går inn i introspektiv.

Forfatterne definerer det andre bevissthetsnettverket, C2, som "metakognisjon": det gjenspeiler når du lærer eller oppfatter noe, eller bare gjør en feil. (“Jeg tror jeg burde ha fylt drivstoff på den siste stasjonen, men jeg glemte det”). Denne dimensjonen gjenspeiler sammenhengen mellom bevissthet og en følelse av selvtillit.

C2 er nivået av bevissthet som lar deg føle deg mer eller mindre trygg på å ta en beslutning. Når det gjelder databehandling, er det en algoritme som utleder sannsynligheten for at en beslutning (eller beregning) vil være riktig, selv om den ofte oppfattes som en "sjette sans."

C2 lanserer også røtter i hukommelse og nysgjerrighet. Disse selvovervåkende algoritmene lar oss vite hva vi vet og hva vi ikke vet - dette er "metaminne" som hjelper deg med å finne det riktige ordet "på tuppen av tungen." Å observere det vi vet (eller ikke vet) er spesielt viktig for barn, sier Dehané.

"Det er helt essensielt for små barn å holde rede på hva de vet for å lære og være nysgjerrige," sier han.

Disse to aspektene av bevissthet fungerer sammen: C1 henter relevant informasjon inn i vårt arbeidsmentale rom (forkaster andre "mulige" ideer eller løsninger), og C2 hjelper med langsiktig refleksjon om hvorvidt bevisst tenkning har ført til et nyttig resultat eller respons.

Når vi går tilbake til indikatoren for lavt drivstoff, tillater C1 bilen å løse problemet umiddelbart - disse algoritmene globaliserer informasjonen, og bilen lærer om problemet.

Men for å løse problemet trenger bilen en katalog med "kognitive evner" - selvbevisstheten om hvilke ressurser som er lett tilgjengelige, for eksempel et GPS-kart over bensinstasjoner.

"Denne typen selvoppdagelsesbil er det vi kaller å jobbe med C2," sier Dehane. Siden signalet er tilgjengelig globalt og overvåkes som om bilen ser på seg selv fra siden, vil bilen ta seg av indikatoren for lavt drivstoff og oppføre seg på samme måte som en person - det vil redusere drivstofforbruket og finne en bensinstasjon.

"De fleste moderne maskinlæringssystemer har ingen selvkontroll," bemerker forfatterne.

Men teorien deres ser ut til å være på rett spor. I de eksemplene der et selvobservasjonssystem ble implementert - i form av en struktur av algoritmer eller et eget nettverk - utviklet AI-ene "interne modeller som var metakognitive i naturen, som tillot agenten å utvikle (begrenset, implisitt, praktisk) forståelse av seg selv."

Til bevisste maskiner

Vil en bil med modellene C1 og C2 oppføre seg som om den har bevissthet? Det er veldig sannsynlig at en smart bil vil "vite" at den ser noe, uttrykker tillit til det, kommuniserer det til andre og finner den beste løsningen på problemet. Hvis hans introspeksjonsmekanismer bryter sammen, kan han også oppleve "hallusinasjoner" eller synsillusjoner som er vanlige for mennesker.

Takket være C1 kan han bruke informasjonen han har og bruke den fleksibelt, og takket være C2 vil han kjenne grensene for det han vet, sier Dehane. "Jeg tror denne maskinen vil ha bevissthet," og ikke bare virke slik for folk.

Hvis du sitter igjen med følelsen av at bevissthet handler om mye mer enn en global utveksling av informasjon og selvobservasjon, er du ikke alene.

"Denne rent funksjonelle definisjonen av bevissthet kan gi noen lesere misfornøyde," innrømmer forfatterne. “Men vi prøver å ta et radikalt skritt, kanskje forenkle problemet. Bevissthet er en funksjonell egenskap, og når vi fortsetter å legge til funksjoner i maskiner, vil disse egenskapene på et tidspunkt karakterisere det vi mener med bevissthet, avslutter Dehane.

Ilya Khel

Anbefalt: