Hvilke Farer Ved Nevrale Nettverk Undervurderer Vi? - Alternativ Visning

Innholdsfortegnelse:

Hvilke Farer Ved Nevrale Nettverk Undervurderer Vi? - Alternativ Visning
Hvilke Farer Ved Nevrale Nettverk Undervurderer Vi? - Alternativ Visning

Video: Hvilke Farer Ved Nevrale Nettverk Undervurderer Vi? - Alternativ Visning

Video: Hvilke Farer Ved Nevrale Nettverk Undervurderer Vi? - Alternativ Visning
Video: But what is a neural network? | Chapter 1, Deep learning 2024, April
Anonim

Har du noen gang møtt en person på gaten som vil være en til en som deg? Klær, ansikt, gangart, kommunikasjonsmåte, vaner er helt identiske med deg. Det er som å bli skannet og skrevet ut på en skriver. Høres litt skummel ut, ikke sant? Se for deg at du har sett en video der en slik person forteller noe om seg selv. I beste fall vil du prøve å huske når du gikk på en slik måte at du ikke husket noe, men du kan si dette på kamera. Selv om alt dette høres ut som enkel resonnement, men teknologien er allerede veldig nær å skape slike mennesker. De eksisterer allerede, men snart kommer det mange flere.

Hvor kommer falsken fra?

Nå er det allerede for mange ting som ofte kalles forfalskninger. De er overalt. De kan finnes på fotografier, i nyhetene, i produksjon av varer og i informasjonstjenester. Det er lettere å si hvor det ikke er noen fenomener ledsaget av dette ordet. Mens du kan kjempe mot dem. Du kan studere opprinnelsen til bildet, sjekke særtrekkene til et merkevare fra en falsk og dobbeltsjekke nyhetene. Nyheter er et eget tema.

I dag ønsker ikke en innholdsforbruker å vente og krever øyeblikkelig produksjon fra skaperen, noen ganger bryr han seg ikke engang om kvaliteten, det viktigste er å raskt. Det er her situasjoner oppstår når noen sa noe, og de andre, uten å sjekke det, tok det bort fra sine nettsteder og aviser. I noen tilfeller tar det lang tid å snurre denne ballen tilbake og bevise at det hele var galt.

Det er ikke noe poeng i å forklare hvorfor alt dette er gjort. På den ene siden er det de som bare vil le av situasjonen, på den andre siden de som virkelig ikke visste at de tok feil. Et eget sted, omtrent i midten, er okkupert av de som det er lite å tjene. Dette kan være påvirkningsinteresser på forskjellige nivåer, inkludert det politiske. Noen ganger er dette formålet med å tjene penger. For eksempel å så panikk i aksjemarkedet og gjennomføre lønnsomme transaksjoner med verdipapirer. Men ofte skyldes dette fiendtlighet overfor en person (firma, produkt osv.) For å fornedre ham. Et enkelt eksempel er å "slippe" i karakterene til en film eller institusjon som ikke er ønskelig for noen. Selvfølgelig krever dette en hær av dem som vil gå og mislike (noen ganger til og med roboter), men det er en annen historie.

Hva er dyp læring?

Salgsfremmende video:

Nylig høres dette begrepet mer og oftere ut. Noen ganger er han ikke engang relatert til saken og er forvirret med noe annet. Så programvareproduktet ser mer imponerende ut.

Tror ikke at konseptet og de grunnleggende prinsippene for maskinlæring dukket opp bare for noen år siden. De er faktisk så mange år gamle at mange av oss ikke engang ble født da. De grunnleggende prinsippene for dype læringssystemer og de matematiske modellene for deres arbeid ble kjent tilbake på 80-tallet av forrige århundre.

På det tidspunktet ga de ikke så mye mening på grunn av mangelen på en viktig komponent. Det var høy datakraft. Først på midten av 2000-tallet dukket det opp systemer som kan bidra til å jobbe i denne retningen og tillate å beregne all nødvendig informasjon. Nå har maskiner utviklet seg enda mer, og noen systemer med maskinsyn, stemmesyn og noen andre fungerer så effektivt at de noen ganger til og med overgår mulighetene til en person. Selv om de ennå ikke er "fengslet" i ansvarlige retninger, noe som gjør dem til et tillegg til menneskelige evner, samtidig som de opprettholder kontrollen over dem.

Image
Image

Hva er Deepfake? Når dukket Deepfake opp?

Det er lett å gjette at Deepfake er et lite skuespill på ord assosiert med Deep Learning og selve forfalskningene som jeg snakket om ovenfor. Det vil si at Deepfake bør ta falske til et nytt nivå og losse en person i denne vanskelige virksomheten, slik at de kan lage falskt innhold uten å kaste bort energi.

Først av alt, slike forfalskninger angår video. Det vil si at enhver person kan sitte foran kameraet, si noe, og ansiktet hans vil bli erstattet med en annen person. Det ser skummelt ut, fordi du faktisk bare trenger å fange de grunnleggende bevegelsene til en person, og det vil ganske enkelt være umulig å skille en falsk. La oss se hvordan det hele startet.

Det første generative motstandernettverket ble opprettet av en student ved Stanford University. Det skjedde i 2014, og studenten het navnet Ian Goodfellow. Faktisk pittet han to nevrale nettverk mot hverandre, hvorav det ene var engasjert i generasjonen av menneskelige ansikter, og det andre analyserte dem og snakket på lignende måte eller ikke. Så de trente hverandre og en dag begynte det andre nevrale nettverket å bli forvirret og ta de genererte bildene på ordentlig. Det er dette stadig mer komplekse systemet som føder Deepfake.

Nå er en av de viktigste promotørene av ideen om Deepfake Hao Li. Han gjør ikke bare dette, men også mange andre. For dette ble han gjentatte ganger tildelt forskjellige priser, inkludert uoffisielle. For øvrig er han en av dem som skal takkes for utseendet til animoji på iPhone X. Hvis du er interessert, kan du gjøre deg mer kjent med det på hjemmesiden hans. I dag er han ikke hovedtemaet for diskusjonen.

Vi husket ham bare fordi han viste søknaden sin på World Economic Forum i Davos, som lar deg erstatte ansiktet til en person som sitter foran kameraet med noe annet ansikt. Spesielt viste han hvordan systemet fungerer på eksempelet til ansiktene til Leonardo DiCaprio, Will Smith og andre kjente personer.

Det ser litt skummelt ut. På den ene siden kan du bare beundre de moderne teknologiene som lar deg skanne et ansikt, endre det til et annet mens du er på farten og produsere et nytt bilde. Alt dette tar et delt sekund, og systemet bremser ikke engang opp. Det vil si at det ikke bare tillater å behandle den ferdige videoen og erstatte ansiktet, men også delta i en slik karakter i en slags live videokommunikasjon.

Fare for Deepfake. Hvordan endrer jeg ansiktet på en video?

Du kan snakke så mye du vil at denne teknologien er nødvendig, den er veldig kul og at du ikke trenger å baktale. Du kan til og med gå til det ekstreme og begynne å si at dette er stillingen til en voldsom gammeldags som rett og slett er redd for alt nytt, men det er virkelig flere farer enn fordeler.

Med slik teknologi, spesielt hvis det er åpen kildekode, vil alle kunne surfe og spille inn hvilken som helst video. Det er ikke ille hvis det bare krenker noens ære og verdighet, mye verre hvis det er en uttalelse som er avgitt på vegne av en viktig person. Ved å spille inn en video som bare er 30-40 sekunder lang på vegne av Tim Cook, kan du få ned nesten hele den amerikanske IT-sfæren, ledet av Apple. Aksjemarkedet vil bli rammet så hardt at det vil sive panikk blant investorer. Som et resultat vil tusenvis av mennesker tape milliarder av dollar.

Alle som ikke liker denne måten å tjene penger vil si at det er dette de trenger, la dem gå til anlegget. Men under det tristeste scenariet vil det ikke være noe anlegg etter dette. I tillegg er det kornete at vi får en person som jukser med svingninger i verdien av verdipapirer. Det er nok bare å kjøpe og selge dem i tide.

Situasjonen kan bli enda verre hvis "jokeren" uttaler seg på vegne av lederen for en stor stat. Selvfølgelig vil da alt bli avslørt, men i løpet av denne tiden kan du gjøre mye ubehagelige ting. På denne bakgrunn ville det bare være en uskyldig prank å bytte ut en kjendis ansikt for en skuespiller i en voksen film.

Med slike teknologier er det viktigste å skanne, og da er det et spørsmål om teknologi. I den sanneste forstand av ordet
Med slike teknologier er det viktigste å skanne, og da er det et spørsmål om teknologi. I den sanneste forstand av ordet

Med slike teknologier er det viktigste å skanne, og da er det et spørsmål om teknologi. I den sanneste forstand av ordet.

Du kan forestille deg den motsatte situasjonen, når en ekte person sier noe, og deretter forsikrer alle om at han ble innrammet. Hvordan man skal være i denne situasjonen er heller ikke veldig tydelig. Dette vil gi en slik forvirring i nyhetsstrømmene at det ganske enkelt ikke er mulig å dobbeltsjekke det i en annen kilde. Som et resultat blir det generelt uklart hva som er sant og hva som er usant i denne verden. Et bilde kommer fram fra filmer om en dyster framtid, som Surrogates eller Terminator, der T-1000 introduserte seg som andre mennesker og blant annet kalte John Conor på vegne av sin adoptivmor.

Nå snakker jeg ikke engang om et annet misbruk som vil tillate innsamling av falske bevis. På denne bakgrunn blir all moroa med leken for tvilsom.

Hvordan oppdage Deepfake?

Problemet er ikke en gang at slike systemer skal forbys, men at dette ikke lenger er mulig. De er allerede der, og utviklingen av teknologier, inkludert lesing av ansikter, har ført til deres utseende og spredning av åpen kildekode. Selv om vi ser for oss at systemet i sin nåværende form vil slutte å eksistere, må vi forstå at det vil bli opprettet på nytt. De vil bare igjen lære nevrale nettverk å jobbe med hverandre, og det er det.

Så langt er ikke alt så skummelt, og du kan bokstavelig talt identifisere en falske med det blotte øye. Bildet er likt, men ganske grovt. I tillegg har hun noen ganger noen blandingsproblemer, spesielt rundt kantene på ansiktet. Men ingenting står stille og det er slett ikke vanskelig å utvikle det enda mer. Den samme Hao Li er sikker på at dette ikke vil ta mer enn noen måneder, og for å lage “masker” som til og med en datamaskin ikke kan skille fra, vil det ta flere år til. Etter det blir det ingen tilbakevending.

På den ene siden kan algoritmen som YouTube og Facebook allerede oppretter beskytte mot dette. For øvrig åpnet sistnevnte til og med en konkurranse for utvikling av anerkjennelsesteknologi - Deepfake Detection Challenge ("Oppgaven å oppdage deepfakes"). Premiefondet for denne konkurransen er $ 10 millioner. Konkurransen er allerede i gang og avsluttes i mars 2020. Du kan fremdeles ha tid til å delta.

Å bytte ut et ansikt i en video er ikke lenger et problem
Å bytte ut et ansikt i en video er ikke lenger et problem

Å bytte ut et ansikt i en video er ikke lenger et problem.

Kanskje skyldes denne generøsiteten en falsk video med Mark Zuckerberg selv. Hvis disse to tingene henger sammen, er fremveksten av en slik konkurranse ikke overraskende.

Hvis det skiftede ansiktet stemmer overens med originalen, vil motkraften representert av et spesielt nevralt nettverk være maktesløst. I dette tilfellet vil hun måtte fange minimale forskjeller i ansiktsuttrykk, bevegelser og måte å snakke på. Når det gjelder kjente personer, vil et slikt problem løses på videotjenestens nivå, siden den samme YouTube vet hvordan den konvensjonelle Donald Trump beveger seg. Når det gjelder en mindre kjent person, blir det vanskeligere. Selv om dette også kan bevises ved å plassere ham foran kameraet og ha en uformell samtale mens det nevrale nettverket analyserer bevegelsene hans. Det vil vise seg å være noe som å studere et fingeravtrykk, men som vi ser vil dette igjen føre til unødvendige vanskeligheter.

Å sy videoautentiseringssystemer i kameraer kan også omgås. Du kan få kameraet til å merke den innfangede videoen og gjøre det klart at den ikke ble filmet gjennom en egen applikasjon eller behandlet i et spesielt program. Men hva med videoer som nettopp er blitt behandlet? For eksempel et redigert intervju. Som et resultat vil vi få en video der den opprinnelige nøkkelen ikke lenger vil være.

Noen få memes på slutten
Noen få memes på slutten

Noen få memes på slutten.

Kan vi si at vi nå har tegnet et av scenariene for en mørk fremtid? Generelt, ja. Hvis teknologiene som ble opprettet for å oppnå gode mål, kommer ut av kontroll, kan de slippe av sorg. Det er faktisk mange alternativer for slike farlige teknologier, men de fleste av dem er beskyttet. For eksempel kjernefusjon. Her har vi å gjøre med kode som alle kan få.

Skriv i kommentarene hvordan du ser beskyttelse mot forfalskning, med tanke på at maskeringssystemet var i stand til å lage masker helt identiske med de originale ansiktene. Og fordi de er på video, kan du ikke engang bruke dybde- og volumgjenkjenning på dem. La oss i tillegg anta at kode og nøkkel som er innebygd i bildet, kan bli hacket. Som de sier, ville det være for hva. Nå kan vi diskutere, alt det innledende er der.

Artem Sutyagin

Anbefalt: