Mordroboter Vil Forklare Beslutningene Sine For Folk - Alternativ Visning

Mordroboter Vil Forklare Beslutningene Sine For Folk - Alternativ Visning
Mordroboter Vil Forklare Beslutningene Sine For Folk - Alternativ Visning

Video: Mordroboter Vil Forklare Beslutningene Sine For Folk - Alternativ Visning

Video: Mordroboter Vil Forklare Beslutningene Sine For Folk - Alternativ Visning
Video: The Vietnam War: Reasons for Failure - Why the U.S. Lost 2024, April
Anonim

Amerikanske eksperter utvikler et nevralt nettverk som kan forklare beslutningene tatt av kamproboter. Dette vil øke nivået av menneskelig tillit til de "elektroniske soldatene".

Prosjektet Explainable Artificial Intelligence, eller ganske enkelt XAI (Explainable Artificial Intelligence), vil tillate mennesker og roboter å forstå hverandre bedre. XAI nevrale nettverk vil bygge en logisk kjede med "resonnement" av roboten og vise personen hvorfor maskinen tok akkurat en slik beslutning - for eksempel å åpne ild på et spesifikt mål.

Image
Image

Det pågår en utvikling for å lage blandede robot-menneskelige kampenheter i den amerikanske hæren. Så langt er det vanskelig å forestille seg, men om noen tiår vil roboter bli fullverdige soldater - akkurat som mennesker. Dessuten er de i stand til å erstatte en person i situasjoner der det kan være nødvendig å åpne ild på et levende mål. En slik erstatning vil formelt frigjøre en person for ansvaret for å ta en dødelig avgjørelse, men den vil ikke kunne frata ham tvil og anger, og kan også forårsake mistillit til roboter. Du vet aldri - kanskje roboter faktisk er elektroniske maniakker som liker å drepe?

XAI-prosjektet skal løse dette problemet i interaksjon mellom mennesker og roboter. Takket være innføringen av det nye systemet, vil militæret (de som fremdeles er levende mennesker) kunne forstå etter hvilket kriterium maskinen har vurdert dette eller det objektet eller personen som en trussel. Dessuten vil XAI gjøre det lettere for kamproboter å tilpasse seg realitetene i en spesifikk militær konflikt og redusere graden av meningsløs grusomhet.

Den nye utviklingen vil være nyttig ikke bare for militæret. Det kan også brukes i den sivile sfære - i industri, sikkerhetssystemer og medisin. Et eksempel på slik bruk er gitt av Bill Ferguson, en ledende spesialist i Raytheon, som er direkte involvert i utviklingen av et nevralt nettverk. “Hvis kunstig intelligens oppdager tegn på lungekreft på røntgenbildet, kan legen finne ut hvorfor maskinen bestemte det. Datamaskinen vil fremheve alle mistenkelige områder som legen kunne ha ignorert og ta feil av bildeartefakter. Etter dette vil legen kunne bestemme selv om det er verdt å rette diagnosen, eller om det nevrale nettverket var feil,”forklarer forskeren.

Anbefalt: