Hvordan Beskytte Oss Mot Kunstig Intelligens? - Alternativ Visning

Innholdsfortegnelse:

Hvordan Beskytte Oss Mot Kunstig Intelligens? - Alternativ Visning
Hvordan Beskytte Oss Mot Kunstig Intelligens? - Alternativ Visning

Video: Hvordan Beskytte Oss Mot Kunstig Intelligens? - Alternativ Visning

Video: Hvordan Beskytte Oss Mot Kunstig Intelligens? - Alternativ Visning
Video: Hvordan lærer man en robot at finde ridser? Med kunstig intelligens 2024, September
Anonim

Tanken om at kunstig intelligens uunngåelig vil føre oss til et scenario der maskiner gjør opprør mot mennesker er ganske populær. Kunstig superintelligens ser ut til å være den største mulige trusselen, og de fantastiske historiene som vi ikke vil trenge i en verden som eies av teknologi har aldri mistet populariteten.

Er det uunngåelig?

Den litterære og filmatiske skildringen av intelligente datasystemer fra 1960-tallet har bidratt til å forme og oppsummere forventningene våre for fremtiden når vi legger ut på reisen for å skape maskinell intelligens som overgår menneskelig intelligens. AI har tydeligvis allerede overgått mennesker i visse spesifikke oppgaver som krever kompleks beregning, men henger fortsatt etter i en rekke andre muligheter. Hvordan man samtidig kan øke kraften til dette tøffe verktøyet og bevare vår økonomiske stilling over det.

Siden kunstig intelligens allerede spiller og vil fortsette å spille en stor rolle i fremtiden, er det viktig å utforske mulighetene våre for å eksistere sammen med disse komplekse teknologiene.

Kevin Abosch, grunnlegger av Kwikdesk, et databehandlings- og kunstig intelligensfirma, delte sine tanker om dette. Han mener at kunstig intelligens bør være rask, iøynefallende, pålitelig, bokstavelig og etisk. Ja, etisk.

Etiske rammer

Salgsfremmende video:

Konseptet med et kunstig nevralt nettverk, modellert etter et biologisk nevralt nettverk, er ikke noe nytt. Enheter med datakraft, kalt nevroner, kobler seg til hverandre for å danne et nettverk. Hver nevron bruker en sofistikert læringsalgoritme på inngangen, før den overfører data til andre nevroner, til neuronet på utgangen er aktivert og åpner muligheten for lesing. Ekspertsystemer er avhengige av at folk “lærer” systemet og planter frø av kunnskap. Logiske motorer ser etter treff, tar valg, angir om-dette-da-da-regler til kunnskapsbasen. I denne prosessen legges ny kunnskap til kunnskapsbasen. Et rent nevralt nettverk lærer i ferd med å få ikke-lineær erfaring, har ikke problemet med å så kunnskap fra en ekspert. Hybride nettverk har bevistsom forbedrer læringsevnen til maskiner.

La oss se på de etiske spørsmålene i slike systemer. Videre fra første person.

Image
Image

"Dårlig kode" kontra god kode

Forfatteren bruker ord for å fordype leseren i en fiktiv verden, og gjør det på forskjellige måter, men store forfattere gjør det veldig grasiøst. En programvareingeniør skriver kodelinjer som letter behandlingen og bevegelsen av data. Også han kan velge mellom en rekke alternativer på forskjellige måter, men de grasiøse koderne er informatikere. Den fremgangsgivende koderen fokuserer på hvordan du kan kapre så mye og bedre som mulig i kort og ryddig kode. Overflødig kode holdes på et minimum. Stor kode holder også vinduet åpent for fremtidige tillegg. Andre ingeniører kan legge til kode med sin iboende eleganse, og produktet utvikler seg sømløst.

Ethvert menneskeskapt produkt er basert på intensjon. Ting som er laget av mennesker er mettet med intensjoner, og til en eller annen grad er bærere av selve skaperen. Noen mennesker synes det er vanskelig å forestille seg et livløst objekt av denne art. Men mange vil være enige i dette. Intensjonenes energi har eksistert i tusenvis av år, forener, deler seg, forenes, forvandler samfunnet. Språkens kraft skal heller ikke undervurderes. Ikke glem at kodelinjer er skrevet på et spesifikt programmeringsspråk. Dermed er jeg overbevist om at koden som blir programvare som brukes på datamaskiner eller mobile enheter, er veldig "levende".

Uten å vurdere visdom og spiritualitet i sammenheng med informatikk og de potensielle konsekvensene av kunstig intelligens, kan vi fortsatt se statisk kode som en enkelt enhet med potensial til å "gjøre godt" eller "gjøre ondt." Disse utgangene befinner seg bare i ferd med å bruke applikasjoner av mennesker. Det er de klare valgene folk tar som påvirker søknadens natur. De kan sees i et lokalt system, bestemme den positive eller negative effekten på det systemet, eller basert på et sett med forhåndsdefinerte standarder. Imidlertid, akkurat som en journalist ikke kan være 100% upartisk i prosessen med å skrive en artikkel, slik at en ingeniør villig eller uforvarende legger til naturen til intensjonene hans til koden. Noen vil kanskje hevde at det å skrive kode er en logisk prosess, og at ekte logikk ikke gir rom for naturen.

Men jeg er sikker på at i det øyeblikket du oppretter en regel, en blokkkode eller hele koden, er det hele gjennomsyret av et element av menneskelig natur. Med hver tilleggsregel utdypes penetrasjonen av arten. Jo mer kompleks koden, jo mer av denne art i den. Derfor oppstår spørsmålet: "Kan kodens natur være god eller ond?"

Det er klart at et virus som er utviklet av en hacker som ondsinnet bryter datamaskinens forsvar og ødelegger ødeleggelser i livet ditt, er mettet av en ond natur. Men hva med et virus skapt av de gode gutta for å infiltrere en terrororganisasjons datamaskiner for å forhindre terrorangrep? Hva er dens natur? Teknisk sett kan det være identisk med den ubehagelige motparten, bare brukt til "gode" formål. Så hans natur er snill? Dette er hele det etiske paradokset med malware. Men vi kunne ikke se bort fra det, ved å tenke på den "onde" koden.

Etter min mening er det kode som iboende trekker mot "ondskap", og det er kode som iboende er partisk mot goodwill. Dette er viktigere i forbindelse med offline datamaskiner.

Image
Image

Hos Kwikdesk utvikler vi et AI-rammeverk og -protokoll basert på mitt ekspertsystem / nevrale nettverk hybriddesign, som ligner mest på en biologisk modell. Neuroner manifesterer seg som I / O-moduler og virtuelle enheter (på en måte autonome midler) koblet med "aksoner", sikre, separate kanaler med kryptert data. Disse dataene dekrypteres når de kommer inn i nevronen, og etter at visse prosesser er kryptert før de sendes til neste nevron. Før nevroner kan kommunisere med hverandre gjennom et akson, må en nøkkelutveksling mellom deltakeren og kanalen finne sted.

Jeg mener at sikkerhet og separasjon bør bygges inn i slike nettverk fra laveste nivå. Overbygg reflekterer egenskapene til de minste komponentene, så noe mindre enn trygge byggesteiner vil resultere i utrygg drift av hele linjen. Av denne grunn må dataene beskyttes lokalt og dekrypteres når de overføres lokalt.

Implementering og garantier

Kvaliteten på livet vårt sammen med maskiner som blir smartere og smartere er forståelig bekymringsfullt, og jeg er helt sikker på at vi må ta grep for å sikre en sunn fremtid for kommende generasjoner. Truslene mot smarte maskiner er potensielt forskjellige, men kan deles inn i følgende kategorier:

Reservasjon. På arbeidsplasser vil folk erstattes av maskiner. Dette skiftet har pågått i flere tiår og vil bare akselerere. Tilstrekkelig utdanning er nødvendig for å forberede mennesker på en fremtid der hundrevis av millioner av tradisjonelle jobber ganske enkelt vil opphøre å eksistere. Det er komplisert.

Sikkerhet. Vi er avhengige av maskiner og vil fortsette å stole på. Når vi i økende grad stoler på maskiner når vi beveger oss fra et trygt område til et potensielt fareområde, kan vi komme til å risikere maskinfeil eller ondsinnet kode. Tenk for eksempel transport.

Helse. Personlige diagnostiske enheter og medisinske data i nettverk. AI vil fortsette å utvikle seg innen forebyggende medisin og analyse av genetisk data fra publikum. Igjen, vi må ha forsikringer om at disse maskinene ikke vil delta i ondsinnet undergraving eller skade oss.

Skjebne. AI spår med økende nøyaktighet hvor du vil reise og hva du vil gjøre. Når dette området utvikler seg, vil han vite hvilke beslutninger vi tar, hvor vi går neste uke, hvilke produkter vi vil kjøpe eller til og med når vi dør. Vil vi at andre skal ha tilgang til disse dataene?

Kunnskap. Maskiner akkumulerer de facto kunnskap. Men hvis de tilegner seg kunnskap raskere enn mennesker kan teste den, hvordan kan vi da stole på dens integritet?

Avslutningsvis vil jeg merke at en årvåken og ansvarlig tilnærming til AI for å dempe potensielle problemer i en teknologisk supernovaeksplosjon er vår måte. Vi vil enten temme potensialet i AI og be om at det bare gir det beste for menneskeheten, eller vi vil brenne ut i potensialet, som vil gjenspeile det verste i oss.

Ilya Khel

Anbefalt: