I 2040 Kan Kunstig Intelligens Revolusjonere Prinsippene Om Atomsikkerhet - Alternativ Visning

I 2040 Kan Kunstig Intelligens Revolusjonere Prinsippene Om Atomsikkerhet - Alternativ Visning
I 2040 Kan Kunstig Intelligens Revolusjonere Prinsippene Om Atomsikkerhet - Alternativ Visning

Video: I 2040 Kan Kunstig Intelligens Revolusjonere Prinsippene Om Atomsikkerhet - Alternativ Visning

Video: I 2040 Kan Kunstig Intelligens Revolusjonere Prinsippene Om Atomsikkerhet - Alternativ Visning
Video: Potentialet i kunstig intelligens 2024, Kan
Anonim

En nylig publisert studie av RAND Corporation konkluderte med at innen 2040 kunne kunstig intelligens (AI) radikalt endre begrepet atomavskrekkelse.

En AI-drevet dommedagsmaskin virker usannsynlig, men den reelle risikoen for AI for atomsikkerhet ligger i AIs evne til å få folk til å ta uberettigede, potensielt apokalyptiske beslutninger.

Under den kalde krigen opprettholdt begrepet sikret gjensidig ødeleggelse en skjelven fred mellom supermaktene, og argumenterte for at ethvert angrep ville resultere i ødeleggende gjengjeldelse. Som et resultat sikret HLG-konseptet strategisk stabilitet, og fungerte nøkternt på begge sider i sin beredskap for handlinger som faktisk kunne utvikle seg til en atomkrig.

RAND-publikasjonen sier at AI i de kommende tiårene er ganske kapable til å ødelegge konseptet om sikret gjensidig ødeleggelse og derved undergrave den strategiske stabiliteten i vår verden. Mer sofistikerte sensorer gjør det sannsynlig at "gjengjeldelsesvåpen" - for eksempel atomubåter og mobile missiler - kan identifiseres og ødelegges.

Nasjoner kan bli fristet til å søke første streik som om det var en fordel i forhold til deres rivaler, selv om de ikke har noen intensjon om å slå først. Dette undergraver stabiliteten ved at selv om den siden som er i stand til å angripe først ikke vil bruke denne muligheten, kan motstanderen ikke være sikker på det.

"Koblingen mellom atomkrig og AI er ikke ny, faktisk er historiene sammenvevd," sier Edward Geist, medforfatter av artikkelen og i RAND. "Opprinnelig ble mye av AI-forskningen utført med støtte fra militæret for å nå sine mål."

Som et eksempel siterte han et "adaptivt planlagt overlevelseseksperiment" gjennomført på 1980-tallet, som hadde som mål å bruke AI for å kombinere etterretning og målretting mot atomvåpen.

I tilfelle usikkerhet, kunne AI styrke stabiliteten i den strategiske situasjonen ved å forbedre nøyaktigheten til innsamlet etterretning og dens analyse.

Salgsfremmende video:

Forskere mener at i utviklingsprosessen vil AI bli mindre utsatt for å gjøre feil sammenlignet med mennesker, noe som betyr at det vil være en faktor av stabilitet på lang sikt.

Vadim Tarabarko

Anbefalt: