Killer Roboter? Stopp, Selv Gode Roboter Er Veldig Uforutsigbare - Alternativ Visning

Innholdsfortegnelse:

Killer Roboter? Stopp, Selv Gode Roboter Er Veldig Uforutsigbare - Alternativ Visning
Killer Roboter? Stopp, Selv Gode Roboter Er Veldig Uforutsigbare - Alternativ Visning

Video: Killer Roboter? Stopp, Selv Gode Roboter Er Veldig Uforutsigbare - Alternativ Visning

Video: Killer Roboter? Stopp, Selv Gode Roboter Er Veldig Uforutsigbare - Alternativ Visning
Video: Darkmar Rampel - Killer Roboter Turmwächter 2024, Kan
Anonim

Lederne for mer enn hundre av verdens ledende kunstige intelligensbedrifter er veldig bekymret for utviklingen av "killer robots". I et åpent brev til FN advarte disse næringslivslederne, inkludert Elon Musk fra Tesla og grunnleggerne av Googles DeepMind, at bruken av autonom våpenteknologi kunne bli adoptert av terrorister og despoter, eller mer eller mindre bli hacket.

Men den virkelige trusselen er mye mer alvorlig - og det er ikke bare menneskelig uredelighet, men også maskinføringer. Undersøkelse av komplekse systemer viser at de kan oppføre seg mye mer uforutsigbart enn det kan utledes av summen av individuelle handlinger. På den ene siden betyr dette at det menneskelige samfunn kan oppføre seg veldig annerledes enn du kan forvente ved å studere individers oppførsel. På den annen side gjelder det samme for teknologi. Selv økosystemer av enkle kunstige intelligensprogrammer - som vi kaller stumme, gode roboter - kan overraske oss. Selv individuelle roboter kan oppføre seg fryktelig.

De enkelte elementene som utgjør komplekse systemer, for eksempel økonomiske markeder eller verdensvær, har en tendens til ikke å samhandle på en enkel lineær måte. Dette gjør disse systemene veldig vanskelige å modellere og forstå. Selv etter mange års klimaforskning er det for eksempel umulig å forutsi værets langsiktige oppførsel. Disse systemene er like følsomme for de minste endringene som de reagerer eksplosivt. Det er veldig vanskelig å vite den eksakte tilstanden til et slikt system på et gitt tidspunkt. Alt dette gjør disse systemene internt uforutsigbare.

Alle disse prinsippene gjelder store grupper mennesker som handler på sin egen måte, det være seg menneskelige samfunn eller grupper av AI-roboter. Forskere studerte nylig et type komplekst system som brukte gode roboter for å automatisk redigere Wikipedia-artikler. Disse forskjellige bots er designet, skrevet og brukt av pålitelige Wikipedia-redaktører, og deres underliggende programvare er åpen kildekode og tilgjengelig for alle. Individuelt har de et felles mål om å forbedre leksikonet. Imidlertid viste deres kollektive oppførsel seg overraskende ineffektiv.

Veletablerte regler og konvensjoner er kjernen i hvordan disse bots fungerer på Wikipedia, men siden nettstedet ikke har et sentralt kontrollsystem, er det ingen effektiv koordinering mellom personene som kjører de forskjellige bots. Resultatene avslørte et par roboter som kansellerte hverandres redigeringer i flere år og ingen la merke til det. Og selvfølgelig, siden disse robotene ikke lærer i det hele tatt, la de heller ikke merke til det.

Disse bots er designet for å fremskynde redigeringsprosessen. Men små forskjeller i utformingen av roboter, eller mellom menneskene som bruker dem, kan føre til et enormt sløsing med ressurser i en pågående "redigeringskrig" som kunne løses mye raskere av redaktører.

Forskerne fant også at boter oppførte seg annerledes i forskjellige språkversjoner av Wikipedia. Reglene, det ser ut til, er nesten de samme, målene er identiske, teknologiene er like. Men på den tyskspråklige Wikipedia var bot-samarbeidet mye mer effektivt og produktivt enn for eksempel på portugisisk. Dette kan bare forklares med forskjellene mellom de menneskelige redaktørene som kjørte disse robotene i forskjellige miljøer.

Salgsfremmende video:

Eksponentiell forvirring

Bots fra Wikipedia har ikke bred autonomi, og systemet fungerer ikke lenger i samsvar med målene til individuelle bots. Men Wikimedia Foundation planlegger å bruke AI som vil gi mer autonomi til disse robotene. Og dette vil sannsynligvis føre til enda mer uforutsigbar oppførsel.

Et godt eksempel på hva som kan skje, vises av roboter designet for å snakke med folk når de blir tvunget til å kommunisere med hverandre. Vi er ikke lenger overrasket over svarene fra personlige assistenter som Siri. Men få dem til å kommunisere med hverandre, og de vil raskt begynne å oppføre seg på uventede måter, krangle og til og med fornærme hverandre.

Jo større systemet blir, og jo mer autonom hver bot blir, jo mer kompleks og uforutsigbar vil fremtidens oppførsel være. Wikipedia er et eksempel på et stort antall relativt enkle roboter på jobb. Chatbot-eksemplet er et eksempel på et lite antall relativt komplekse og oppfinnsomme roboter - i begge tilfeller oppstår uforutsette konflikter. Kompleksitet, og derfor uforutsigbarhet, vokser eksponentielt etter hvert som personlighet tilføres systemet. Derfor, når systemer med et stort antall veldig komplekse roboter dukker opp i fremtiden, vil deres uforutsigbarhet gå utover våre forestillinger.

Brennende galskap

Selvkjørende biler, for eksempel, lover å gjøre et gjennombrudd i effektivitet og trafikksikkerhet. Men vi vet ennå ikke hva som vil skje når vi har et stort viltsystem med fullt autonome kjøretøy. De kan oppføre seg annerledes selv i en liten flåte av individuelle kjøretøyer i et kontrollert miljø. Og enda mer uforutsigbar oppførsel kan manifestere seg når selvkjørende biler, "trent" av forskjellige mennesker på forskjellige steder, begynner å samhandle med hverandre.

Folk kan tilpasse seg nye regler og konvensjoner relativt raskt, men de har problemer med å bytte mellom systemer. Kunstige midler kan være enda vanskeligere. Hvis for eksempel en bil "trent i Tyskland" reiser til Italia, vet vi ikke hvordan den vil mestre de uskrevne kulturmessene som mange andre "trente i Italia" -biler følger. Noe dagligdags som å krysse et veikryss kan bli dødelig risikabelt fordi vi bare ikke vet om bilene vil samhandle ordentlig eller om de vil oppføre seg uforutsigbart.

Tenk nå på morderen robotene som trakasserer Musk og hans kolleger. Én drapsmaskin kan være veldig farlig i gale hender. Hva med systemet med uforutsigbare mordereoboter? Tenk for deg selv.

Ilya Khel

Anbefalt: