Tenker Som En Person: Hva Vil Skje Hvis Du Gir Maskinen Bevissthetsteorien - Alternativ Visning

Innholdsfortegnelse:

Tenker Som En Person: Hva Vil Skje Hvis Du Gir Maskinen Bevissthetsteorien - Alternativ Visning
Tenker Som En Person: Hva Vil Skje Hvis Du Gir Maskinen Bevissthetsteorien - Alternativ Visning

Video: Tenker Som En Person: Hva Vil Skje Hvis Du Gir Maskinen Bevissthetsteorien - Alternativ Visning

Video: Tenker Som En Person: Hva Vil Skje Hvis Du Gir Maskinen Bevissthetsteorien - Alternativ Visning
Video: Архитектура ЭВМ | Основы Операционных Систем | 01 2024, Kan
Anonim

Forrige måned led et team av selvlærte AI-spillere et spektakulært nederlag mot profesjonelle esportspillere. Showkampen, som fant sted som en del av det internasjonale verdensmesterskapet Dota 2, viste at lagstrategisk tenking fortsatt lar en person få overtaket over en bil.

De involverte AI-ene var flere algoritmer utviklet av OpenAI, hvorav Elon Musk er en av grunnleggerne. Et kollektiv av digitale spillere, kalt OpenAI Five, lærte å spille Dota 2 på egen hånd, gjennom prøving og feiling, og konkurrere med hverandre.

I motsetning til det samme sjakk- eller brettlogikk-spillet Go, regnes det populære og raskt voksende flerspillerspillet Dota 2 som et mye mer seriøst felt for å teste kunstig intelligens. Spillets generelle vanskelighetsgrad er bare en faktor. Det er ikke nok bare å klikke veldig raskt med musen og gi kommandoer til karakteren du kontrollerer. For å vinne, er det nødvendig å ha intuisjon og forståelse for hva du kan forvente av motstanderen i neste øyeblikk i tid, samt å handle adekvat i henhold til dette kunnskapssettet for å komme sammen med felles innsats mot et felles mål - seier. Datamaskinen har ikke dette settet med funksjoner.

Til dags dato har ikke den mest fremragende datamaskinalgoritmen dypt læring den strategiske tenkningen som er nødvendig for å forstå målene fra oppgavene til motstanderen, det være seg en annen AI eller et menneske.

I følge Wang, for at AI skal lykkes, må den ha en dyp kommunikasjonsevne som stammer fra det viktigste kognitive trekk ved en person - tilstedeværelsen av intelligens.

Psykisk tilstandsmodell som en simulering

Salgsfremmende video:

I en alder av fire begynner barn vanligvis å forstå en grunnleggende sosial egenskap: deres sinn er forskjellige fra andres. De begynner å forstå at alle har det de tror på, sine ønsker, følelser og intensjoner. Og viktigst av alt, å forestille seg seg selv når de er andre, kan de begynne å forutsi disse menneskers videre oppførsel og forklare dem. På en måte begynner hjernen deres å lage flere simuleringer av seg selv i seg selv, og erstatte seg selv i stedet for andre mennesker og plassere seg i et annet miljø.

Den mentale tilstandsmodellen er viktig for å forstå seg selv som person og spiller også en viktig rolle i sosialt samspill. Å forstå andre er nøkkelen til effektiv kommunikasjon og oppnå felles mål. Imidlertid kan denne evnen også være drivkraften bak falsk tro - ideer som fører oss bort fra objektiv sannhet. Så snart evnen til å bruke en mental tilstandsmodell er svekket, for eksempel, dette skjer i autisme, forverres også naturlige "menneskelige" ferdigheter, som evnen til å forklare og forestille seg.

I følge Dr. Alan Winfield, professor i robotikk ved University of the West of England, er den mentale tilstandsmodellen eller "theorie of mind" en nøkkelfunksjon som en dag vil gjøre det mulig for AI å "forstå" mennesker, ting og andre roboter.

I stedet for maskinlæringsmetoder, der flere lag med nevrale nettverk henter ut individuelle opplysninger og "studerer" enorme databaser, foreslår Winston å ta en annen tilnærming. I stedet for å stole på læring, foreslår Winston å forhåndsprogrammere AI med en intern modell av seg selv og miljøet som vil svare på enkle spørsmål "hva om?".

Tenk deg for eksempel at to roboter beveger seg langs en smal korridor, deres AI kan simulere resultatene av ytterligere handlinger som vil forhindre kollisjon: dreie til venstre, høyre eller fortsette rett. Denne interne modellen vil i hovedsak fungere som en "konsekvensmekanisme", og fungere som en slags "sunn fornuft" som vil bidra til å lede AI til de neste riktige handlingene ved å forutsi den fremtidige utviklingen av situasjonen.

I en studie publisert tidligere i år demonstrerte Winston en prototyprobot som er i stand til å oppnå slike resultater. Forutse andres oppførsel, passerte roboten vellykket gjennom korridoren uten kollisjoner. Det er faktisk ikke overraskende, konstaterer forfatteren, men den "imøtekommende" roboten, som brukte en simulert tilnærming for å løse problemet, tok 50 prosent lengre tid å fullføre korridoren. Likevel beviste Winston at hans metode for intern simulering fungerer: "Dette er et veldig kraftig og interessant utgangspunkt i utviklingen av teorien om kunstig intelligens," konkluderte forskeren.

Winston håper at AI til slutt vil få evnen til å beskrive, mentalt reprodusere situasjoner. En intern modell av seg selv og andre vil tillate en slik AI å simulere forskjellige scenarier, og enda viktigere, å definere spesifikke mål og mål for hver av dem.

Dette er vesentlig forskjellig fra dype læringsalgoritmer, som i prinsippet ikke er i stand til å forklare hvorfor de kom til denne eller den konklusjonen når de løste et problem. Black box-modellen for dyp læring er faktisk det virkelige problemet med å stole på slike systemer. Dette problemet kan bli spesielt akutt, for eksempel når du utvikler sykepleieroboter for sykehus eller for eldre.

En AI bevæpnet med en mental tilstandsmodell kan sette seg i skoene til sine mestere og forstå riktig hva som er ønsket av den. Da kunne han identifisere passende løsninger, og etter å ha forklart disse beslutningene for personen, ville han allerede fullføre oppgaven som ble tildelt ham. Jo mindre usikkerhet i beslutninger, jo mer tillit vil det være i slike roboter.

Psykisk tilstandsmodell i et nevralt nettverk

DeepMind tar en annen tilnærming. I stedet for å forhåndsprogrammere en algoritme for konsekvensmekanismen, har de utviklet flere nevrale nettverk som demonstrerer en sans for en modell for kollektiv psykologisk atferd.

AI-algoritmen "ToMnet" kan lære handlinger ved å observere andre nøytronettverk. ToMNet i seg selv er et kollektiv av tre nevrale nettverk: det første er basert på særegenhetene ved å velge andre AIer i henhold til deres siste handlinger. Det andre danner et generelt begrep om den nåværende stemningen - deres tro og intensjoner på et bestemt tidspunkt. Det samlede resultatet av arbeidet med to nevrale nettverk mottas av det tredje, som spår ytterligere handlinger fra AI basert på situasjonen. Som med dyp læring, blir ToMnet mer effektivt ettersom det får erfaring ved å følge andre.

I et eksperiment så "ToMnet" på tre AI-agenter som manøvrerer i et digitalt rom og samlet fargerike kasser. Hver av disse AI-ene hadde sin egen særegenhet: en var "blind" - kunne ikke bestemme formen og plasseringen i rommet. Den andre var en "sklerotisk": han kunne ikke huske sine siste trinn. Den tredje kunne både se og huske.

Etter trening begynte ToMnet å forutsi preferansene til hver AI ved å observere handlingene. For eksempel beveget de "blinde" seg konstant bare langs veggene. ToMnet husket dette. Algoritmen var også i stand til å forutsi AIs fremtidige atferd og, enda viktigere, forstå når AI møtte en falsk representasjon av miljøet.

I en test programmerte et team av forskere en AI for "nærsynthet" og endret utformingen av et rom. Agentene med normalt syn tilpasset seg raskt den nye utformingen, men den myopiske mannen fortsatte å følge sine opprinnelige ruter, og trodde falskt at han fortsatt var i det gamle miljøet. ToMnet la raskt merke til denne funksjonen og spådde agentens oppførsel nøyaktig og satte seg på sin plass.

I følge Dr. Alison Gopnik, en utviklingspsykolog ved University of California, Berkeley, som ikke var involvert i disse studiene, men som var kjent med funnene, viser disse resultatene at nevrale nettverk har en utrolig evne til å lære ulike ferdigheter på egen hånd, gjennom observasjon av andre. Samtidig er det ifølge eksperten fortsatt veldig tidlig å si at disse AI-ene har utviklet en kunstig modell for den mentale tilstanden.

I følge Dr. Josh Tenebaum fra Massachusetts Institute of Technology, som heller ikke var involvert i studien, er ToMnets "forståelse" sterkt knyttet til konteksten til læringsmiljøet - det samme rommet og spesifikke AI-agenter hvis oppgave var å samle bokser. Denne begrensningen innenfor en viss ramme gjør ToMnet mindre effektiv til å forutsi atferd i radikalt nye miljøer, i motsetning til de samme barna som kan tilpasse seg nye situasjoner. Algoritmen vil ifølge forskeren ikke takle å modellere handlingene til en helt annen AI eller person.

I alle fall demonstrerer arbeidet til Winston og DeepMind at datamaskiner begynner å vise rudiment om "forståelse" av hverandre, selv om denne forståelsen fremdeles bare er rudimentær. Og når de fortsetter å forbedre denne ferdigheten, og forstå hverandre bedre og bedre, vil tiden komme når maskiner kan forstå kompleksiteten og kompleksiteten i vår egen bevissthet.

Nikolay Khizhnyak

Anbefalt: