Kan En Robot Ha Følelser? - Alternativt Syn

Innholdsfortegnelse:

Kan En Robot Ha Følelser? - Alternativt Syn
Kan En Robot Ha Følelser? - Alternativt Syn

Video: Kan En Robot Ha Følelser? - Alternativt Syn

Video: Kan En Robot Ha Følelser? - Alternativt Syn
Video: Weird Food: more than 60 Strange Foods From Around the World 2024, Juni
Anonim

I nær fremtid vil sosiale roboter og robotassistenter bli en viktig del av menneskelivet. De kan være hjemme hos deg, på sykehus og på skoler, de vil hjelpe til med å ta vare på barn, eldre, de vil hjelpe til med rehabilitering etter sykdom eller skade, samt i gjennomføringen av annen form for hjelp.

Image
Image

Hvordan skal en robot være?

Men hvor mye vet menneskeheten om psykologien ved å samhandle med roboter? Hvordan skal en slik robot se ut? Hvordan skal han bevege seg og reagere på mennesker? Hvilken informasjon skal han reagere på? Bør en robot "vise" følelser og svare på manifestasjonen av menneskelige følelser? Hvor menneskelig skal en slik robot være? Hvor nyskapende kan vitenskapelige ideer være når man utvikler slike roboter som kan være responsive assistenter og gi den nødvendige og pålitelige støtten, inkludert øyeblikkene med spesiell stress og spenning som en person kan finne seg i?

Image
Image

Vitenskapelig forskning

Kampanjevideo:

Det er på tide å se på to separate vitenskapelige studier som ser på hvordan mennesker forstår og reagerer på følelser i roboter. Hvert sett med eksperimenter utforsket noen spesifikke aspekter av hvordan roboter kan se ut eller bevege seg i detalj. Den første studien ble gjennomført av et tverrfaglig internasjonalt team av forskere fra Israel og USA, mens den andre studien ble utført i Amerika med bistand fra eksperter fra felt innen robotikk, virtual reality, menneskelige faktorer og mennesker som sådan. Roboten som heter Travis, ser ikke menneskelig ut. Travis har en liten størrelse, funksjoner som vagt ligner enhver skapning, store ører, men samtidig har han ingen øyne, ingen nese eller munn. Høyden er omtrent 28 centimeter, og når du legger den på bordet,Travis hode er omtrent på nivå med ansiktet til personen som sitter foran bordet. Roboten kan nikke, svinge eller vende seg bort. Travis har en del som kan tolkes som et utstrakt ben, og han har også en utstrakt arm der han holder en smarttelefon, takket være det han jobber.

Image
Image

Første eksperiment

Da deltakerne (102 studenter) ankom laboratoriet, ble de fortalt at de deltok i å teste en ny algoritme for å forstå tale for roboter, og som en del av denne testingen ville roboten prøve å forstå hva personen sa til ham. Deltakerne ble bedt om å fortelle roboten om et problem, bekymring eller stressende situasjon de nylig har opplevd, for eksempel en nylig kamp med en venn eller et familiemedlem eller en alvorlig sykdom. De ble også bedt om å beskrive problemet i tre deler, samt si når de er ferdige med å fortelle hver del, hvorpå roboten vil svare dem ved hjelp av en smarttelefon. Deltakerne visste imidlertid ikke at de var tilfeldig delt inn i to grupper. I den "reaktive" gruppen sto Travis overfor deltakeren da han snakket om problemet sitt, av og til nikket lett på hodet og svaiet. På slutten av hver av de tre delene ble det også vist en melding fra et ferdig sett på smarttelefonskjermen, for eksempel "Jeg forstår hva du går gjennom" eller "Du må ha hatt det vanskelig." Faktisk valgte ikke Travis disse meldingene. En av forskerne lyttet til samtalen og valgte riktig melding til rett tid.

Image
Image

Andre gruppe

Medlemmene av gruppen "ikke svarer" møtte en helt annen Travis. Han nikket ikke eller svaiet, og teksten som ble vist på smarttelefonskjermen etter å ha fullført hver del av historien ba ganske enkelt deltakeren om å fortsette å snakke. Etter å ha fullført "samtalen" ble deltakerne bedt om å rangere roboten på en rekke kriterier i form av å svare på noen få enkle spørsmål om hvor responsiv Travis var. For eksempel ble de bedt om å rangere på en skala fra en til ti hvor mye de er enige i setningene "Roboten forsto hva jeg tror og føler" eller "Roboten virkelig hørte meg." Andre spørsmål avklarte også hvor utadvendt og kompetent Travis var.

Hva er resultatet?

Også videoopptakene av hver deltagers kommunikasjon med Travis ble evaluert av uavhengige dommere som ikke visste om forholdene hver deltaker var i. Analyse av samtalen viste at deltakere som interagerte med en responsiv robot ikke avslørte mer om deres problem enn deltakere som snakket med en robot som ikke reagerer. Den responsive Travis scoret imidlertid mye høyere på skalaen av omgjengelighet og kompetanse (han ble beskrevet som dyktig, pålitelig og kunnskapsrik). Enda viktigere, da de uavhengige dommerne gjennomgikk og vurderte videoene, la de merke til at de som snakket med den responsive Travis selv, var mye mer lydhøre overfor roboten og gikk i åpen samtale. De lente seg oftere til Travis, smilte, opprettholdt øyekontakt med ham. Nøyaktig det samme ble funnet i en oppfølgingsstudie, der deltakerne ble bedt om å fortelle ikke en negativ, men en positiv hendelse i livet.

Image
Image

konklusjoner

Dermed, selv når roboten ikke ligner et menneske, tar mennesker raskt opp selv de svakeste signalene om respons på sine egne ord og handlinger. Følgelig bør utformingen av en robot ikke ha et stort antall forskjellige detaljer, bevegelser og muligheter for handlinger for å øke den menneskelige vurderingen av dens respons og sosialitet. Som et resultat kan vi si at dette åpner for mye flere muligheter for å utvikle funksjonelle roboter. Men hva om en person må møte roboten direkte når den er under stress? Ikke når han bare husker noe ille, men opplever ekte fysisk og kognitivt stress. Kan stress hindre en person i å "lese" robotens ikke-verbale følelsesmessige uttrykk?

Hva med å "lese" følelser under stress?

Og mens forskning har vist at mennesker er i stand til å lese emosjonelle uttrykk fra roboter i hverdagsnøytrale forhold, er den andre studien i denne gjennomgangen den første i historien som undersøker menneskelige responser på roboter direkte under ekstrem stress. Som en del av studien ble stressende forhold simulert. Forskere tvang deltakerne til å senke hendene i isvann i bestemte tidsperioder, mens de utsatte dem for enda mer stress, og tvang dem til å løse vanskelige matteproblemer i hodet. De ble deretter bedt om å rangere den følelsesmessige uttrykksfulle eller statiske stillingen til Nao, en 60 cm humanoid robot. Naos ansiktsuttrykk og øyne forble uendret, mens robotens kropp inntok en av 25 forskjellige stillinger som viste enten positive eller negative følelser.

Image
Image

Resultater av den andre studien

Påvirket stresset hvordan deltakerne kunne “lese” roboten utgjør? Den andre gruppen av deltakere var mer heldige, de dyppet hånden i varmt vann og utførte i deres sinn de enkleste regneeksemplene. Imidlertid viste det seg at stress hadde veldig liten effekt på hvordan folk oppfatter følelser, bortsett fra de stillingene som viste sterk spenning eller spenning. Da deltakerne selv var stresset, oppfattet de negative robotstillinger som mer negative og mindre animerte eller urolige. Med andre ord, stress forskjøvet robotens oppfatning av følelser litt, så negativitet virket enda mer negativ og positivitet mindre positiv.

Marina Ilyushenko

Anbefalt: