Killer Roboter - Det Er Ikke Lenger En Fantasi, Men En Realitet - Alternativ Visning

Innholdsfortegnelse:

Killer Roboter - Det Er Ikke Lenger En Fantasi, Men En Realitet - Alternativ Visning
Killer Roboter - Det Er Ikke Lenger En Fantasi, Men En Realitet - Alternativ Visning

Video: Killer Roboter - Det Er Ikke Lenger En Fantasi, Men En Realitet - Alternativ Visning

Video: Killer Roboter - Det Er Ikke Lenger En Fantasi, Men En Realitet - Alternativ Visning
Video: The Vietnam War: Reasons for Failure - Why the U.S. Lost 2024, Kan
Anonim

Det skal innrømmes at robotikk har tatt et ganske steg de siste årene. Våpnene som er opprettet av forsvarsbedrifter blir smartere, kunstige intelligenssystemer er koblet til dem, roboter får full autonomi og så videre. Dette betyr at en morder robot kan bli en realitet raskere enn vi tror. I det minste er det hva representanter for RAH, en ideell organisasjon med base i Nederland og som tar til orde for verdensfred, mener det. De kunngjorde dette i rapporten som ble publisert i magasinet Quartz.

Hvorfor bygge mordereoboter?

Mordroboter er designet for å ta beslutninger om å ta eller bevare livet på egen hånd, uten menneskelig kontroll. Spesialister fra det russiske kunsthøgskolen kalte dette alarmerende tegnet "den tredje revolusjonen i krig" etter oppfinnelsen av krutt og atombomben. Både aktivister og stater etterlyser opprettelse av et sett internasjonale regler for oppretting av slike våpen, eller til og med et direkte forbud mot bruk av dem. Men noen land, inkludert USA, Kina og den russiske føderasjonen, har ennå ikke tatt grep i denne saken.

RAX-spesialister har identifisert minst 30 globale våpenprodusenter som ikke har en politikk mot utviklingen av ovennevnte typer våpensystemer. Disse inkluderer amerikanske forsvarsselskaper Lockheed Martin, Boeing og Raytheon, kinesiske regjeringskonglomerater AVIC og CASC, israelske firmaer IAI, Elbit og Rafael, russiske Rostec og tyrkiske STM.

Samtidig tror ikke aktivister at militær anvendelse av et eller annet kunstig intelligenssystem er et problem. Problemet er nettopp at slike systemer kan bli utenfor menneskelig kontroll.

For eksempel utvikler det amerikanske militæret allerede en kanon med kunstig intelligens, som uavhengig vil velge og treffe mål, så vel som stridsvogner med kunstig intelligens, som kan "identifisere og treffe mål tre ganger raskere enn noen." Og STM, det tyrkiske statsforsvarsselskapet, er allerede i full gang med å produsere en AI-drevet robot kalt KARGU. Komplett med ansiktsgjenkjenningsfunksjoner, kan KARGU autonomt velge og angripe mål ved hjelp av koordinater som er valgt av operatøren. Det rapporteres at Tyrkia har til hensikt å bruke KARGU i Syria.

PAX er mest bekymret for potensiell distribusjon av AI i støtende systemer som vil velge og angripe mål på egen hånd, uten menneskelig tilsyn. Gruppen lurer på hvordan disse våpnene vil skille mellom militære og sivile. Dessuten vet advokater fremdeles ikke hvem som vil være ansvarlige hvis autonome våpen bryter internasjonal lov.

Salgsfremmende video:

Den tyrkiske dronen KARGU sporer målet og ødelegger det og faller ovenfra som en kamikaze
Den tyrkiske dronen KARGU sporer målet og ødelegger det og faller ovenfra som en kamikaze

Den tyrkiske dronen KARGU sporer målet og ødelegger det og faller ovenfra som en kamikaze.

I motsetning til Google eller Amazon, som har møtt både offentlige og interne reaksjoner på sitt arbeid med militære systemer, handler imidlertid selskaper som Lockheed Martin og Raytheon utelukkende med militæret, slik at de møter minimale reaksjoner fra partnere. så vel som fra vanlige mennesker, siden de fleste av utviklingen forblir klassifiserte til et visst punkt.

Mens utviklingen av autonome våpen fortsetter, mener RAX at det fremdeles er en måte å forhindre en mulig katastrofe på. Gruppen sa at produksjonsbedrifter kan spille en kritisk rolle i dette, og må motsette seg produksjon av fullstendig autonome dødelige våpen. Når det gjelder AI-aktiverte våpensystemer, vil PAX-tjenestemenn si at forsvarsfirmaer må følge et sett regler som ennå ikke er utviklet. Men ingen ber om å forlate AI fullstendig.

Vladimir Kuznetsov

Anbefalt: