Det britiske selskapet DeepMind, som ble en del av Google i 2014, jobber kontinuerlig med å forbedre kunstig intelligens. I juni 2018 presenterte de ansatte et nevralt nettverk som var i stand til å lage 3D-bilder fra 2D-bilder. I oktober gikk utviklerne lenger - de opprettet et BigGAN nevralt nettverk for å generere bilder av natur, dyr og gjenstander som det er vanskelig å skille fra virkelige fotografier.
I likhet med andre kunstige bildeprosjekter er denne teknologien basert på et generativt motstanders nevralt nettverk. Husk at den består av to deler: en generator og en diskriminator. Den første lager bilder, og den andre evaluerer deres likhet med prøvene av det ideelle resultatet.
I dette arbeidet ønsket vi å uskarpe grensen mellom AI-genererte bilder og fotografier fra den virkelige verden. Vi fant at eksisterende generasjonsmetoder er tilstrekkelige for dette.
Ulike sett med bilder ble brukt for å lære BigGAN å lage bilder av sommerfugler, hunder og mat. Først var opplæringen basert på ImageNet-databasen, og deretter - det større JFT-300M-settet med 300 millioner bilder, fordelt på 18.000 kategorier.
BigGAN-trening tok 2 dager. Det tok 128 Google Tensorprosessorer designet spesielt for maskinlæring.
Professorer fra det skotske Heriot-Watt universitetet deltok også i utviklingen av det nevrale nettverket. Detaljer om teknologien er beskrevet i artikkelen Trening
storskala generativ motstanders nevrale nettverk GAN for syntese av naturlige bilder med høy tro”.
Salgsfremmende video:
I september brukte forskere ved Carnegie Melon University generative adversarial nevrale nettverk for å lage et system for å overlegge ansiktsuttrykk på andres ansikter.
Ramis Ganiev