Du Vet Med En Gang At Dette Er Porno. Vil Datamaskinen Forstå? - Alternativ Visning

Innholdsfortegnelse:

Du Vet Med En Gang At Dette Er Porno. Vil Datamaskinen Forstå? - Alternativ Visning
Du Vet Med En Gang At Dette Er Porno. Vil Datamaskinen Forstå? - Alternativ Visning

Video: Du Vet Med En Gang At Dette Er Porno. Vil Datamaskinen Forstå? - Alternativ Visning

Video: Du Vet Med En Gang At Dette Er Porno. Vil Datamaskinen Forstå? - Alternativ Visning
Video: 💋 Это БДСМ вечеринка, БЕЗ ЦЕНЗУРЫ! 👄 Horror Porn 💑 (Хоррор Порно)?! 👾 LUST FROM BEYOND #3! 2024, Kan
Anonim

Tumblr kunngjorde tidlig i forrige måned at den ville forby porno. Da den nye innholdspolitikken trådte i kraft, omtrent to uker senere - den 17. desember - viste det seg at det ville være problemer. Etter å ha utplassert et kunstig intelligenssystem som skulle forby all pornografi på nettstedet, flagget det feilaktig uskyldige innlegg i 455,4 millioner blogger på nettstedet blant 168,2 milliarder innlegg: vaser, hekser, fisk og all den jazz.

Pornografi for kunstig intelligens

Selv om det er uklart hvilket automatisk filter Tumblr brukte eller opprettet sin egen - selskapet svarte ikke på henvendelser om temaet - er det tydelig at det sosiale nettverket sitter fast mellom sin egen politikk og teknologi. Nettstedets inkonsekvente holdning til "kvinner som viser brystvorter" og kunstnerisk nakenhet, for eksempel, har for eksempel ført til kontekstuelle beslutninger som viser at selv Tumblr ikke vet hva de skal forby på plattformen. Hvordan kan et hyppig selskap bestemme hva det anser som uanstendig?

For det første er det vanskelig å blokkere risikabelt innhold fordi det er vanskelig å definere hva det er fra begynnelsen. Definisjonen av uanstendighet er en bjørnefelle som er mer enn hundre år gammel, allerede i 1896 vedtok USA først lover som regulerer uanstendighet. I 1964, i Jacobellis mot Ohio, om Ohio kunne forby visning av en Louis Malle-film, ga Høyesterett det som antagelig er den mest kjente definisjonen av hardcore pornografi i dag: "Jeg vil ikke prøve å definere denne typen materiale lenger i dag, som, slik jeg forstår, vil den bli inkludert i den ordentlige beskrivelsen; og jeg kan aldri være i stand til å gjøre det forståelig, sier dommer Potter Stewart. "Men jeg vet hva det er når jeg ser det, og filmen knyttet til denne saken er det ikke."

Maskinlæringsalgoritmer har det samme problemet. Dette er nøyaktig problemet Brian Delorge, administrerende direktør i Picnix, et selskap som selger spesialisert kunstig intelligenssteknologi, prøver å løse. Et av produktene deres, Iris, er en applikasjon på klientsiden for å oppdage pornografi for å "hjelpe mennesker", som Delorge sier, "som ikke vil ha porno i livet." Han bemerker at det spesielle problemet med porno er at det kan være hva som helst, en haug med forskjellige ting - og bilder som ikke er pornografiske kan ha lignende elementer. Strandfestebildet kan være blokkert ikke fordi det har mer hud på seg enn kontorfoto, men fordi det er på kanten. "Dette er grunnen til at det er veldig vanskelig å trene en bildegjenkjenningsalgoritme til å gjøre alt på en gang," sier DeLorge."Når definisjonen blir vanskelig for mennesker, har datamaskinen også vanskeligheter." Hvis folk ikke kan bli enige om hva porno er og hva ikke, kan en datamaskin til og med håpe å vite forskjellen?

For å lære en AI å oppdage porno, er det første du trenger å gjøre å mate det porno. Masse pornografi. Hvor kan jeg få tak i det? Vel, det første folk gjør er å laste ned en haug med videoer fra Pornhub, XVideos, sier Dan Shapiro, medgründer av Lemay.ai, en oppstart som lager AI-filtre for kundene sine. "Dette er et av de grå områdene av juridisk art - hvis du for eksempel lærer av andres innhold, tilhører det deg?"

Etter at programmerere lastet ned tonnevis med porno, kuttet de ut ikke-pornografiske opptak fra videoen for å sikre at opptakene som ble brukt, ikke blokkerer pizzaleveranseguttene. Plattformer betaler folk, for det meste utenfor USA, for å tagge slikt innhold; jobben er lavt betalt og kjedelig, som å gå inn i en captcha. De bare sitter og noterer: dette er porno, dette er dette. Du må filtrere litt, for all porno kommer ut med etikett. Læring er bedre hvis du ikke bare bruker fotografier, men store dataprøver.

Salgsfremmende video:

"Ofte trenger du ikke bare filtrere pornoen, men det medfølgende materialet," sier Shapiro. "Som falske profiler med et jentes bilde og telefon." Han viser til sexarbeidere som leter etter klienter, men det kan være alt som ikke er helt lovlig. "Dette er ikke porno, men dette er den typen ting du ikke vil se på plattformen din, ikke sant?" En god automatisert moderator lærer av millioner - om ikke titalls millioner - av prøveinnhold, noe som kan spare deg for mange arbeidstimer.

"Du kan sammenligne dette med forskjellen mellom et barn og en voksen," sier Matt Zeiler, administrerende direktør og grunnlegger av Clarifai, en datamaskinvisjonstart som gjør denne typen bildefiltrering for bedriftskunder. “Jeg kan si det sikkert - for et par måneder siden hadde vi en baby. De vet ikke noe om verden, alt er nytt for dem. " Du må vise barnet (algoritmen) mange ting, slik at han forstår noe. “Millioner og millioner eksempler. Men som voksne - når vi har skapt så mye kontekst om verden og forstått hvordan den fungerer - kan vi lære noe nytt fra bare et par eksempler. " (Ja, å lære en AI å filtrere innhold fra voksne er som å vise et barn mye porno.) Bedrifter som Clarifai vokser raskt i dag. De har en god database over verden, de kan fortelle hunder fra katter, kledd fra nakne. Zeilers selskap bruker modellene sine for å trene nye algoritmer for kundene sine - siden den opprinnelige modellen behandlet mye data, ville personaliserte versjoner bare kreve at nye datasett fungerer.

Imidlertid er det vanskelig for algoritmen å få det til. Det gjør det bra med innhold som åpenbart er pornografisk; men en klassifiserer kan feilaktig merke en undertøyannonse som utenfor grensen fordi bildet har mer skinn enn, for eksempel, et kontor. (Med bikini og undertøy er det ifølge Zeiler veldig vanskelig). Dette betyr at markedsførerne bør fokusere på disse kantsakene i arbeidet sitt, og prioritere de vanskelige å klassifisere modeller.

Hva er den vanskeligste delen?

"Anime porno," sier Zeiler. "Den første versjonen av nakenhetsdetektoren vår brukte ikke tegneseriepornografi for utdanning." Mange ganger gjorde AI det galt fordi den ikke kjente igjen hentai. "Etter å ha jobbet med dette for klienten, injiserte vi mye av dataene hans i modellen og forbedret nøyaktigheten til tegneseriefilteret samtidig som vi opprettholdt nøyaktigheten til ekte fotografier," sier Zeiler.

Teknologien som har blitt lært opp for å snuse ut porno, kan også brukes på andre ting. Teknologiene bak dette systemet er bemerkelsesverdig fleksible. Dette er mer enn anime pupper. Jigsaw fra Alphabet er for eksempel mye brukt som en automatisk kommentator-moderator i en avis. Denne programvaren fungerer på lignende måte som bildeklassifiserere, bortsett fra at den sorteres etter giftighet snarere enn nakenhet. (Toksisitet i tekstkommentarer er like vanskelig å bestemme som pornografi på bilder.) Facebook bruker denne typen automatisk filtrering for å oppdage selvmordsmeldinger og terrorrelatert innhold, og har forsøkt å bruke denne teknologien for å oppdage falske nyheter på sin massive plattform.

Alt dette avhenger fortsatt av menneskelig tilsyn; vi er flinkere til å håndtere tvetydighet og tvetydig kontekst. Zeiler sier at han ikke tror at produktet hans har tatt noen jobb. Det løser problemet med skalering på internett. Mennesker vil fremdeles trene AI ved å sortere og merke innhold slik at AI kan skille det.

Dette er fremtiden for moderasjon: tilpassede, nøkkelferdige løsninger som tilbys bedrifter som gjør hele virksomheten sin ved å lære flere og mer avanserte klassifisere mer data. Akkurat som Stripe and Square tilbyr ut-av-boksen-betalingsløsninger for bedrifter som ikke ønsker å behandle dem selv, vil oppstarter som Clarifai, Picnix og Lemay.ai gjøre moderering online.

Dan Shapiro fra Lemay.ai er håpefull. "Som med all teknologi, er den fortsatt i ferd med å bli oppfunnet. Så jeg tror ikke vi vil gi etter hvis vi feiler. " Men vil AI noen gang kunne operere autonomt uten menneskelig tilsyn? Uklar. "Det er ingen liten mann i en snusboks som filtrerer hvert skudd," sier han. "Du må få data fra overalt for å trene algoritmen på den."

Zeiler derimot mener at kunstig intelligens en dag vil moderere alt på egen hånd. Til slutt vil antallet menneskelige inngrep reduseres til null eller ubetydelig innsats. Gradvis vil menneskelig innsats bli til noe AI ikke kan gjøre nå, som resonnement på høyt nivå, selvbevissthet - alt som mennesker har.

Å gjenkjenne pornografi er en del av det. Identifisering er en relativt triviell oppgave for mennesker, men det er mye vanskeligere å trene en algoritme til å gjenkjenne nyanser. Å bestemme terskelen når et filter markerer et bilde som pornografisk eller ikke-pornografisk er også en vanskelig oppgave, til dels matematisk.

Kunstig intelligens er et ufullkommen speil av hvordan vi ser verden, akkurat som pornografi er en refleksjon av hva som skjer mellom mennesker når de er alene. Det er en viss sannhet i det, men det er ikke et komplett bilde.

Ilya Khel

Anbefalt: