Roboter Vil Skape De Mest Plausible Informasjonsfalske - Alternativt Syn

Roboter Vil Skape De Mest Plausible Informasjonsfalske - Alternativt Syn
Roboter Vil Skape De Mest Plausible Informasjonsfalske - Alternativt Syn

Video: Roboter Vil Skape De Mest Plausible Informasjonsfalske - Alternativt Syn

Video: Roboter Vil Skape De Mest Plausible Informasjonsfalske - Alternativt Syn
Video: Камуфляж и шпионаж 2024, Kan
Anonim

Tenk deg at en dag et vidunderbarn ville oppfinne en teknologi som lar mennesker eller materielle gjenstander passere gjennom vegger, og legge ut instruksjoner på Internett om hvordan man billig kan bygge en slik mirakelmaskin fra vanlig tilgjengelige husholdningsmaterialer. Hvordan ville verden endre seg?

Mange næringer vil sannsynligvis bli betydelig mer produktive. Å kunne gå gjennom vegger i stedet for å måtte bruke dører, ville gjøre det lettere for folk å flytte rundt på kontorer, flytte varer i lager og utføre utallige daglige husholdningsoppgaver. Imidlertid kan de negative konsekvensene godt oppveie de positive. Å holde verdisaker låst og nøkkel ville miste all mening. Hvem som helst kunne lett komme inn i lageret, komme inn i en bank eller safe.

De fleste av metodene vi bruker for å beskytte privat eiendom involverer vegger på en eller annen måte, så alle vil være ubrukelige over natten. Tyver ville handle straffri til samfunnet kom på alternative måter å forhindre slike forbrytelser på. Resultatet av en slik utvikling av hendelser kan være et økonomisk sammenbrudd eller sosialt kaos.

Ovenstående illustrerer et generelt prinsipp: teknologisk innovasjon er ikke alltid gunstig for samfunnet, i det minste på kort sikt. Teknologier er i stand til å skape negative eksternaliteter, eksternaliteter. Dette økonomiske begrepet betyr skade forårsaket av tredjeparter eller parter. Hvis disse negative eksternalitetene oppveier nytten av selve teknologien, gjør oppfinnelsen verden verre, ikke bedre, i det minste en stund.

Maskinlæring, spesielt en variant kjent som deep learning, er uten tvil det hotteste teknologiske gjennombruddet på planeten. Det gir datamaskiner muligheten til å utføre mange oppgaver som tidligere bare kunne utføres av mennesker: å gjenkjenne bilder, kjøre bil, handle på aksjemarkedet og mer. Dette har ført til angst hos noen mennesker om at maskinlæring kan gjøre mennesker unødvendige og ubrukelige på arbeidsplassen. Og dette er faktisk mulig, men det er en mye mer alvorlig fare fra maskinlæring som ikke har fått nok oppmerksomhet så langt. Poenget er at hvis maskiner er i stand til å lære, så kan de lære å lyve.

Folk i dag kan forfalske bilder som fotografier, men dette er en møysommelig og kompleks prosess. Og forfalskning av et stemme- eller videobilde er generelt utenfor mulighetene til en vanlig person. Men snart, takket være maskinlæring, vil det sannsynligvis være mulig å enkelt lage troverdige falske videobilder av noens ansikt og gi inntrykk av at personen snakker med sin egen stemme. Allerede er det en teknologi for synkronisering av leppebevegelser, som bokstavelig talt kan sette ord i en persons munn. Dette er bare toppen av isfjellet. Snart vil 12-åringer være i stand til å lage fotorealistiske og troverdige falske bilder av politikere, næringslivsledere, deres slektninger eller venner på soverommene på soverommene sine og si alt de kan forestille seg.

Dette i seg selv fremkaller noe åpenbart misbruk. Politiske hoaxes, den såkalte "falske nyheter" eller "informasjonsstopp", vil spre seg som brann. Selvfølgelig vil bedrag bli oppdaget så snart som mulig - ingen digital teknologi kan være så bra at en annen teknologi ikke vil kunne oppdage falske. Men dette vil skje først etter at den skadelige ideen allerede har trengt inn i hodet på mennesker som tror på den. Tenk deg en perfekt oppdiktet, falsk video av presidentkandidater som roper rasemessige oppfatninger eller tilstår voldelige forbrytelser.

Dette er imidlertid bare begynnelsen. Tenk deg potensialet for å manipulere aksjemarkedet. Anta at noen sirkulerte en falsk video der Tesla-sjef Elon Musk innrømmer at Tesla-biler ikke er trygge. Videoen vil gå online og selskapets aksjer vil krasje. Rett etter oppdagelsen av en falsk pris vil prisen komme seg, men i løpet av denne tiden vil manipulatorer kunne tjene store penger og spille for å redusere Tesla-aksjene.

Kampanjevideo:

Og dette er langt fra det mest ekstreme scenariet. Tenk deg en slik skøyer som lager en realistisk falsk video av president Donald Trump om at en streik mot nordkoreanske mål er nært forestående, og legg deretter ut den videoen der nordkoreanere kan se den. Hva er sjansene for at den nordkoreanske ledelsen vil innse at dette er falskt før de må bestemme seg for å starte en krig?

De som har en tendens til å betrakte slike ekstreme scenarier som en alarmist, vil med rimelighet påpeke at eventuelle falske ting kan oppdages, siden de samme maskinlæringsteknologiene vil bli brukt til å oppdage dem som for opprettelsen. Men dette betyr ikke at vi ikke står i fare for å finne oss selv i en verden fylt med allestedsnærværende forfalskninger. Når forfalskningene blir troverdige nok til at folk ikke kan oppdage dem på egenhånd, vil vi for alltid miste tilliten til det vi ser og hører. I stedet for å stole på våre egne sanser, vil vi bli tvunget til å stole på algoritmer som brukes til å oppdage forfalskninger og autentisere informasjon. Gjennom evolusjonen har vi lært å stole på våre egne følelser,og overføringen av disse funksjonene til maskinintelligens kan være for brå for de fleste.

Dette kan være dårlige nyheter for økonomien. Forretnings- og handelsnettverk bygger på tillit og kommunikasjon. Hvis maskinlæring en dag kaster en endeløs orkan av illusjoner og forfalskninger i den offentlige informasjonssfæren, vil murene skapt av evolusjon for å skille virkelighet fra fiksjon kollapse. I dette tilfellet kan nivået på tillit til samfunnet raskt synke, noe som ikke vil redusere og påvirke menneskehetens globale velvære negativt.

Av denne grunn bør myndighetene trolig ta noen skritt for å sikre at digital forfalskning straffes hardt. Dessverre er det ikke sannsynlig at den nåværende administrasjonen vil ta et slikt skritt ut av kjærligheten til nyheter fra trange partier. Og regjeringer som Russland vil sannsynligvis være enda mindre tilbøyelige til å dempe slik praksis. Til syvende og sist utgjør kombinasjonen av dårlig styring med kraftige nye teknologier en langt større trussel mot det menneskelige samfunnet enn teknologiene i seg selv.

Av Noah Smith - Bloomberg News spaltist

Igor Abramov

Anbefalt: