Google ønsker Ikke å Opprette Skynet En Dag, Så Det Oppretter En Bryter For AI - Alternativ Visning

Google ønsker Ikke å Opprette Skynet En Dag, Så Det Oppretter En Bryter For AI - Alternativ Visning
Google ønsker Ikke å Opprette Skynet En Dag, Så Det Oppretter En Bryter For AI - Alternativ Visning

Video: Google ønsker Ikke å Opprette Skynet En Dag, Så Det Oppretter En Bryter For AI - Alternativ Visning

Video: Google ønsker Ikke å Opprette Skynet En Dag, Så Det Oppretter En Bryter For AI - Alternativ Visning
Video: The Terminator, SkyNet and Alexa: The Present and Future of A.I. | Marc Talluto | TEDxIWU 2024, Juli
Anonim

Det er to hovedmotstridende sider i spørsmål og diskusjoner om fremtiden for kunstig intelligens. I det ene hjørnet er selskaper som Google, Facebook, Amazon og Microsoft som investerer aggressivt i teknologi for å gjøre AI-systemer smartere; i det andre er det vår tids store tenkere som Elon Musk og Stephen Hawking som tror at utviklingen av AI tilsvarer en "demon spell".

Et av de mest avanserte AI-selskapene, DeepMind, eid av Google, har skapt sikkerhetstiltak i tilfelle en person må "ta over kontrollen av en robot hvis svikt kan føre til uopprettelige konsekvenser." Vi kan anta at vi snakker om … "drepe alle mennesker." I virkeligheten er selvfølgelig ikke tiltaket antydning til en mulig apokalyps, det handler snarere om sikkerhetstiltak knyttet til smarte roboter som fungerer og vil fungere i fremtiden i forskjellige fabrikker og anlegg.

Det publiserte dokumentet med resepter er et fellesverk fra DeepMind og Oxford Institute for the Future of Humanity, som, som navnet tilsier, tar for seg spørsmål som vil tillate at nettopp denne menneskeheten kommer inn i fremtiden. I flere tiår har instituttets grunnleggerdirektør Nick Bostrom snakket veldig levende om de mulige farene ved utvikling av kunstig intelligens og skrevet mer enn en bok om denne saken, der han diskuterte konsekvensene av å lage superintelligente roboter.

Guiden vi snakker om i dag, kalt "Safely Disabled Agents," utforsker hvordan du deaktiverer AI hvis den begynner å gjøre ting som den menneskelige operatøren ikke vil gjøre. Arbeidet består av forskjellige beregninger og formler som 99 prosent av oss mest sannsynlig ikke vil forstå. Derfor snakker vi ganske enkelt om en "rød knapp" som kan deaktivere AI.

Du kan le og lure, men pionerene innen robotikk og AI ser på de samme sci-fi-filmene som vi gjør. De der roboter en gang fant ut hvordan de skulle ignorere avslutningskommandoen. Så nå skal vi være klare for dette. Det publiserte dokumentet beskriver metoder og løsninger for å sikre at den "trenbare agenten" (les AI) ikke kan lære å ignorere eller forhindre virkningen av det ytre miljøet eller den menneskelige operatøren.

Dette kan virke som overdreven, spesielt når du tenker på at den mest avanserte AI-en akkurat nå egentlig bare er god på brettspill. Bostrom mener imidlertid at før vi begynner å lage AI for nivået på den menneskelige hjernen, må det treffes passende tiltak:

Så snart kunstig intelligens når menneskelig nivå, forventes det et kraftig sprang i utviklingen på mange områder. Like etter vil AI-ene selv lage nye AI-er. Bare vurder disse utsiktene, og samtidig de mulige farene. Derfor er det bedre å overdrive det enn å gå glipp av det."

NIKOLAY KHIZHNYAK

Salgsfremmende video:

Anbefalt: