Hvordan Nevrale Nettverk Ble Lært For å Forfalske Nyhetsbildet - Alternativ Visning

Innholdsfortegnelse:

Hvordan Nevrale Nettverk Ble Lært For å Forfalske Nyhetsbildet - Alternativ Visning
Hvordan Nevrale Nettverk Ble Lært For å Forfalske Nyhetsbildet - Alternativ Visning

Video: Hvordan Nevrale Nettverk Ble Lært For å Forfalske Nyhetsbildet - Alternativ Visning

Video: Hvordan Nevrale Nettverk Ble Lært For å Forfalske Nyhetsbildet - Alternativ Visning
Video: 4 - Nevroevolusjon 2024, April
Anonim

For å lage forfalskninger, brukes kunstige intelligenssystemer og teknologier for å generere video- og lydforfalskninger.

For å lage et "individuelt" nyhetsbilde for noen av oss og forfalske medierapportene som er valgt i det, er innsatsen til en programmerer i dag nok. Spesialister på kunstig intelligens og cybersikkerhet fortalte Izvestia om dette. Nylig anslått de at dette krevde arbeid fra flere lag. Slik akselerasjon ble mulig med utviklingen av teknologier for angrep på nevrale nettverk og generering av lyd- og videofalske ved hjelp av programmer for å lage “dype forfalskninger”. Avisen Izvestia gjennomgikk nylig et lignende angrep, da tre libyske nyhetsportaler samtidig publiserte en melding som angivelig dukket opp i et av sakene. I følge eksperter kan man innen 3-5 år forvente en invasjon av robotmanipulatorer, som automatisk vil kunne skape mange forfalskninger.

Vidunderlige nye verden

Det har vært flere og flere prosjekter som tilpasser informasjonsbildet til oppfatningen til bestemte brukere. Et eksempel på arbeidet deres var den nylige aksjonen fra tre libyske portaler, som publiserte nyheter som angivelig ble trykt i utgaven av Izvestia 20. november. Skaperne av falske modifiserte forsiden av avisen og la på den en melding om forhandlingene mellom feltmarsjalk Khalifa Haftar og statsministeren for regjeringen for National Accord (PNS) Fayez Sarraj. Falsken, i Izvestia-font, ble ledsaget av et bilde av de to lederne som ble tatt i mai 2017. Etiketten med publikasjonens logo ble kuttet fra den faktiske publiserte utgaven av 20. november, og alle andre tekster på siden fra 23. oktober-utgaven.

Fra spesialistenes synspunkt kan slike forfalskninger i overskuelig fremtid gjøres automatisk.

Image
Image

"Kunstig intelligenssteknologi er nå helt åpen, og enheter for mottak og prosessering av data er i miniatyrisering og blir billigere," sa Yuri Vilsiter, doktor i fysiske og matematiske vitenskaper, professor ved det russiske vitenskapsakademiet, leder for FSUE "GosNIIAS" -avdelingen, til Izvestia. - Derfor er det høyst sannsynlig at ikke engang staten og store selskaper, men ganske enkelt privatpersoner i løpet av en nær fremtid vil kunne avlyse og spionere på oss, samt manipulere virkeligheten. I de kommende årene vil det være mulig, ved å analysere brukerpreferanser, å påvirke ham gjennom nyhetsfeeds og veldig smarte forfalskninger.

Salgsfremmende video:

I følge Yuri Vilsiter eksisterer allerede teknologier som kan brukes til et slikt inngrep i det mentale miljøet. I teorien kan invasjonen av manipulatorboter forventes om noen år, sa han. Et begrensende øyeblikk her kan være behovet for å samle store databaser med eksempler på virkelige menneskers svar på kunstige stimuli med sporing av langsiktige konsekvenser. Slik sporing vil trolig kreve flere års forskning før målrettede angrep konsekvent oppnås.

Visjon angrep

Alexei Parfentiev, leder for analyseavdelingen i SearchInform, er enig med Yuri Vilsiter. Ifølge ham spår eksperter allerede angrep på nevrale nettverk, selv om det nå praktisk talt ikke er noen slike eksempler.

- Forskere fra Gartner mener at innen 2022 vil 30% av alle nettangrep være rettet mot å ødelegge dataene som det nevrale nettverket trener og stjele ferdige maskinlæringsmodeller. Da kan for eksempel ubemannede kjøretøy plutselig begynne å feile fotgjengere for andre gjenstander. Og vi vil ikke snakke om økonomisk eller omdømme risiko, men om vanlige menneskers liv og helse, mener eksperten.

Angrep på datasynssystemer blir utført som en del av forskningen nå. Hensikten med slike angrep er å tvinge nevrale nettverk til å oppdage i bildet hva som ikke er der. Eller omvendt for ikke å se hva som var planlagt.

Image
Image

"Et av de aktivt utviklende temaene innen opplæring i nevralt nettverk er de såkalte adversarial attackene (" adversarial attack "- Izvestia)," forklarte Vladislav Tushkanov, nettanalytiker ved Kaspersky Lab. - I de fleste tilfeller er de rettet mot datasynssystemer. For å utføre et slikt angrep, må du i de fleste tilfeller ha full tilgang til nevrale nettverk (de såkalte white-box-angrepene) eller resultatene av dets arbeid (black-box-angrep). Det er ingen metoder som kan lure noe datasynssystem i 100% av tilfellene. I tillegg er det allerede laget verktøy som lar deg teste nevrale nettverk for motstand mot motstanderskapsangrep og øke deres motstand.

I løpet av et slikt angrep prøver en angriper på en eller annen måte å endre det anerkjente bildet slik at det nevrale nettverket ikke fungerer. Ofte blir støy lagt på bildet, lik det som oppstår når du fotograferer i et dårlig opplyst rom. En person merker vanligvis ikke slik forstyrrelse godt, men det nevrale nettverket begynner å fungere. Men for å utføre et slikt angrep, trenger angriperen tilgang til algoritmen.

Ifølge Stanislav Ashmanov, daglig leder for Neuroset Ashmanov, er det foreløpig ingen metoder for å håndtere dette problemet. I tillegg er denne teknologien tilgjengelig for alle: en gjennomsnittlig programmerer kan bruke den ved å laste ned nødvendig open source-programvare fra Github-tjenesten.

Image
Image

- Et angrep på et nevralt nettverk er en teknikk og algoritmer for å lure et nevralt nettverk, som gjør at det gir falske resultater, og faktisk bryter det som en dørlås, - mener Ashmanov. - Nå er det for eksempel ganske enkelt å få ansiktsgjenkjenningssystemet til å tro at det ikke er deg, men Arnold Schwarzenegger foran det - dette gjøres ved å blande tilsetningsstoffer umerkelig for det menneskelige øyet i dataene som kommer inn i det nevrale nettverket. De samme angrepene er mulig for systemer for talegjenkjenning og analyse.

Eksperten er sikker på at det bare vil bli verre - disse teknologiene har gått til massene, svindlere bruker allerede dem, og det er ingen midler til beskyttelse mot dem. Ettersom det ikke er noen beskyttelse mot automatisk oppretting av video- og lydforfalskninger.

Dype forfalskninger

Deepfake-teknologier basert på Deep Learning (teknologier for dyp læring av nevrale nettverk. - Izvestia) utgjør allerede en reell trussel. Video- eller lydforfalskninger lages ved å redigere eller legge over ansiktene til kjente personer som visstnok uttaler den nødvendige teksten og spiller den nødvendige rollen i handlingen.

"Deepfake lar deg erstatte leppebevegelser og menneskelig tale med video, noe som skaper en følelse av realisme av det som skjer," sier Andrey Busargin, direktør for avdelingen for innovativ merkevarebeskyttelse og åndsverk ved Group-IB. - Falske kjendiser “tilbyr” brukere på sosiale nettverk for å delta i trekningen av verdifulle premier (smarttelefoner, biler, pengesummer), etc. Koblinger fra disse videoene fører ofte til falske nettsteder og nettfiskingssteder der brukere blir bedt om å legge inn personlig informasjon, inkludert bankkortdetaljer. Slike ordninger utgjør en trussel for både vanlige brukere og offentlige personer som er omtalt i reklamefilm. På grunn av denne typen shenanigans blir kjendisbilder assosiert med svindel eller annonserte varer.og det er her vi får personlige merke skader, sier han.

Image
Image

En annen trussel er forbundet med bruk av "falske stemmer" for telefonsvindel. I Tyskland brukte for eksempel cyberkriminelle stemmedyping for å få sjefen for et britisk datterselskap med en øyeblikkelig overføring av € 220 000 til kontoen til en ungarsk leverandør i en telefonsamtale, og stilte seg som bedriftsleder. Sjefen for det britiske firmaet mistenkte et triks da hans "sjef" ba om en andre postanvisning, men samtalen kom fra et østerriksk nummer. På dette tidspunktet var den første transjen allerede overført til en konto i Ungarn, hvor pengene ble trukket tilbake til Mexico.

Det viser seg at dagens teknologi gjør det mulig å lage et individuelt nyhetsbilde fylt med falske nyheter. Dessuten vil det snart være mulig å skille forfalskninger fra ekte video og lyd bare med maskinvare. Ifølge eksperter er det lite sannsynlig at tiltak som forbyr utvikling av nevrale nettverk er effektive. Derfor vil vi snart leve i en verden der det kontinuerlig vil være nødvendig å kontrollere alt på nytt.

"Vi må forberede oss på dette, og vi må godta det," understreket Yuri Vilsiter. - Menneskeheten er ikke første gang som går fra en virkelighet til en annen. Vår verden, levemåte og verdier er radikalt forskjellig fra den verdenen som våre forfedre levde for 60 000 år siden, 5000 år siden, 2000 år siden og til og med 200-100 år siden. I den nærmeste fremtiden vil en person i stor grad bli fratatt personvernet og derfor tvunget til ikke å skjule noe og oppføre seg ærlig. Samtidig kan ingenting i den omkringliggende virkeligheten og i egen personlighet tas på tro, alt må stilles spørsmålstegn ved og konstant kontrolleres. Men vil denne fremtidige virkeligheten være vanskelig? Ikke. Det vil rett og slett være helt annerledes.

Anna Urmantseva

Anbefalt: