Forskerteam eksperimenterer ofte med videoinnhold ved hjelp av nevrale nettverk. Ta for eksempel NVIDIA, som på slutten av 2017 trente et nevralt nettverk for å endre vær og tid på døgnet på video. Et annet prosjekt av denne typen ble lansert av forskere fra Carnegie Melon University, som opprettet et nevralt nettverk for å pålegge ansiktsuttrykk av en person.
Prosjektet er basert på DeepFakes-teknologien for å endre ansikter på video. Det er basert på en generativ motstanders form for maskinlæring. Innenfor dens rammer prøver den generative modellen å lure det diskriminerende og omvendt, som et resultat av hvilket systemet forstår hvordan innhold kan transformeres til en annen stil.
Syklus-GAN-algoritmen for å overføre egenskaper til et annet objekt er ikke ideell og gir rom for gjenstander i bildet. For å forbedre kvaliteten på det nevrale nettverket, brukte forskerne den forbedrede versjonen av Recycle-GAN. Det tar ikke bare hensyn til plasseringen av forskjellige deler av ansiktet, men også hastigheten på bevegelsen.
Det nevrale nettverket overførte vellykket ansiktsuttrykkene til TV-programlederen Stephen Colbert til ansiktet til komikeren John Oliver. Dessuten overførte hun blomstringsprosessen til påskeliljen til hibiskusen.
Forskere mener teknologien kan brukes i kinematografi. Dette vil øke prosessen og redusere kostnadene for å lage filmer. Nevrale nettverkers evne til å endre været på video vil gjøre det lettere å lære elbiler å kjøre i forskjellige værforhold.
Ramis Ganiev
Salgsfremmende video: