Ønsket Om å Overleve Vil Gjøre Roboter Intelligente - Alternativ Visning

Ønsket Om å Overleve Vil Gjøre Roboter Intelligente - Alternativ Visning
Ønsket Om å Overleve Vil Gjøre Roboter Intelligente - Alternativ Visning

Video: Ønsket Om å Overleve Vil Gjøre Roboter Intelligente - Alternativ Visning

Video: Ønsket Om å Overleve Vil Gjøre Roboter Intelligente - Alternativ Visning
Video: ОБЗОР ILIFE X750 РОБОТ ПЫЛЕСОС С ИНТЕЛЛЕКТУАЛЬНОЙ СИСТЕМОЙ МАРШРУТОВ ALLCOVER 2024, Kan
Anonim

Nevrovitere hevder at det biologiske prinsippet om homeostase vil skape intelligente roboter, med følelser og tanker.

I den moderne verden opplever roboter ikke flere følelser enn en stein fordypet i novokain. Imidlertid kan det være en måte å lære roboter å føle, sier nevrovitenskapsmenn Kingson Man og Antonio Damasio. For å gjøre dette, trenger du bare å lage en robot som registrerer fare og forstår truslene mot sin egen eksistens. Da vil han bare måtte utvikle følelser som bestemmer atferden hans, som er nødvendig for å sikre overlevelse. "Moderne roboter mangler sanser," skriver Meng og Damasio i sin artikkel i Nature Machine Intelligence. "De kan ikke bestemme tilstanden til interne prosesser i det mentale rommet."

Forskere har foreslått en måte å gi maskiner (som roboter eller humanoide androider) med "kunstige ekvivalenter av sanser." Faktisk bør roboter bli tvunget til å overholde det biologiske prinsippet om homeostase - for å innpode ønsket om å overleve. Bevisstgjøring av kunstig intelligens om de interne prosessene i rammen av overlevelse tilsvarer en robotversjon av følelser.

Kingson Man og Antonio Damasio er sikre på at sanser ikke bare vil gi roboter et utseende av selvbevaringsinstinkt, men også tillate kunstig intelligens å mer etterligne menneskelig intelligens.

Denne nye intelligensen vil være egnet for et bredt spekter av oppgaver. Å gjøre roboter virkelig smarte er bare mulig gjennom følelser, mener Meng og Damasio, og følelser er iboende bare hos dem som søker å overleve. Når folk holder roboten i fungerende stand (alle ledningene er koblet til, den mottar nok energi, ikke overopphetes og ikke fryser), trenger den ikke å bekymre seg for selvbevaring. Derfor trenger han ikke følelser, men rapporterer bare rolig om feil.

Følelser motiverer levende vesener til å søke etter optimale forhold og forhold som er nødvendige for å overleve. Kunstig intelligens, klar over sin egen sårbarhet, bør gjøre det samme.

Evnen til å lage maskiner med følelser kommer fra nyere utvikling på to viktige forskningsområder: myk robotikk og dyp læring. Fremskritt innen myk robotikk kan gi følelser, og nye dype læringsteknikker vil gjøre det mulig for de sofistikerte beregningene som trengs for å oversette disse følelsene til overlevelsesatferd.

Dyp læring er en moderne etterkommer av den gamle ideen om kunstige nevrale nettverk - sett med sammenkoblede dataelementer som etterligner nervecellene i en levende hjerne. Mønstre i det ene laget føres til neste nivå og deretter til det neste, som lar maskinen gjenkjenne mønstre i mønstre. Dyp læring lar roboter klassifisere mønstre i kategorier, identifisere gjenstander (for eksempel katter) eller bestemme om en CT-skanning oppdager tegn til kreft eller annen sykdom.

Salgsfremmende video:

Ved å beregne representativt miljøtilstanden, kunne en dyp læringsmaskin transformere inndata til et bilde av den nye situasjonen. En slik smart maskin, som Meng og Damasio påpeker, kan "koble sensoriske modaliteter": for eksempel gjenkjenne hvordan leppebevegelser (visuell modalitet) tilsvarer vokale lyder (hørselsmodalitet).

Evnen til å føle dine indre tilstander er imidlertid ubrukelig uten en trussel mot eksistensen. Hvis roboten er laget av myke materialer med innebygde sensorer, kan den bli redd for å bli kuttet eller skadet og vil delta i et program for å unngå skader. Dessuten kan en robot som kan vurdere eksistensielle risikoer lære å utvikle nye beskyttelsesmetoder i stedet for å stole på eksisterende handlingsprogrammer. Å utvikle nye metoder for selvforsvar kan også føre til forbedrede tenkeevner.

Derfor kan selvforsvar motivere roboter på samme måte som Isaac Asimovs berømte tre lovgivninger innen robotikk: “En robot kan ikke skade en person, eller ved sin passivitet tillate en person å bli skadet. En robot må overholde alle ordre gitt av et menneske, bortsett fra når disse ordrene er i strid med den første loven. Roboten må ta vare på sikkerheten sin i den grad den ikke er i strid med første eller andre lov."

Forfatter: Kirill Panov

Anbefalt: