Forskere Har Foreslått En Måte å Forhindre Verdens Ende På Grunn Av Roboter I Fremtiden - Alternativ Visning

Forskere Har Foreslått En Måte å Forhindre Verdens Ende På Grunn Av Roboter I Fremtiden - Alternativ Visning
Forskere Har Foreslått En Måte å Forhindre Verdens Ende På Grunn Av Roboter I Fremtiden - Alternativ Visning

Video: Forskere Har Foreslått En Måte å Forhindre Verdens Ende På Grunn Av Roboter I Fremtiden - Alternativ Visning

Video: Forskere Har Foreslått En Måte å Forhindre Verdens Ende På Grunn Av Roboter I Fremtiden - Alternativ Visning
Video: 182nd Knowledge Seekers Workshop, Thursday, July 27, 2017 2024, April
Anonim

Mange frykter en robotopptur i fremtiden, og ber om å stoppe utviklingen av kunstig intelligens for å unngå et negativt scenario i fremtiden. Men i bransjen knyttet til utvikling av robotikk er et stort antall mennesker og penger involvert, så ingen kommer til å stoppe utviklingen av slike teknologier. Kunne vi møte en apokalypse på grunn av skapelsene våre, og er det en måte å forhindre opprør av maskiner på?

For en tid tilbake publiserte Science Alert en artikkel av eksperter fra vitenskapens verden, som snakket om utviklingen av en spesiell algoritme som vil bidra til å forhindre ukontrollert oppførsel av roboter med kunstig intelligens i fremtiden. Ifølge forskere kan roboter rett og slett ikke skade mennesker på grunn av denne metoden.

Forskerne kalte selv algoritmen sin Seldonian. Men hva er meningen? Algoritmer vil kunne analysere uakseptabel oppførsel for maskiner og vil maksimalt beskytte mennesker mot de negative handlingene til roboter, men algoritmene inneholder ikke konseptet god og dårlig oppførsel, så ikke alle eksperter tror på de beskyttende funksjonene til algoritmer.

Utviklerne av det nye systemet fortalte om driften av algoritmen ved hjelp av et av eksemplene, som er å kontrollere en insulinpumpe ved hjelp av et automatisert system. Hvis mengden insulin i pasientens blod reduseres til et ekstremt lavt nivå, foreslår algoritmene handlingene som er nødvendige for å redde personen.

For en tid tilbake uttrykte en rekke forskere bekymring for utviklingen av atomvåpen basert på kunstig intelligens. Hvis slike systemer vil ta sine egne avgjørelser, kan dette føre til en apokalypse på jorden. Ikke glem handlingene fra hackere som kan hacke slike systemer, og ingen beskyttende algoritmer vil hjelpe i dette tilfellet. Dermed kan det vurderes at det ikke er noen ideell beskyttelse mot trusler fra den moderne verden innen utvikling av roboter og kunstig intelligens.

Anbefalt: