Kunstig Intelligens Har Lært å Se Nettverkstroll - Alternativ Visning

Kunstig Intelligens Har Lært å Se Nettverkstroll - Alternativ Visning
Kunstig Intelligens Har Lært å Se Nettverkstroll - Alternativ Visning

Video: Kunstig Intelligens Har Lært å Se Nettverkstroll - Alternativ Visning

Video: Kunstig Intelligens Har Lært å Se Nettverkstroll - Alternativ Visning
Video: Kunstig intelligens vil løse nogle af de vigtigste samfundsudfordringer 2024, Kan
Anonim

Kunstig intelligens leste de aggressive kommentarene fra Reddit-brukere og forsto hvordan folk som hater andre mennesker snakker. Det er vanskeligere å lure ham enn en vanlig botmoderator.

Internett er bebodd av fete og tynne troll og bare frekke mennesker som ikke går i lommene for ord. Å moderere Internett manuelt er en vanskelig og takknemlig jobb. Boter som er programmert for å søke etter ord fra den "forbudte listen" gjør det bedre, men de kan ikke vite når en kaustisk kommentar med kodeord er en ufarlig vits, og når det er et ondt verbalt angrep.

Forskere i Canada har lært kunstig intelligens å skille uhøflige vitser fra sårende vitser og hva sosiologer kaller "hatefulle ytringer."

Dana Wormsley, en av skaperne av AI, bemerker at "hatytringer" er vanskelig å formalisere. Formelt krenkende ord kan faktisk brukes både med ironi og i deres mildere betydning; bare noen av tekstene som inneholder slike ord, oppfordrer og ydmyker alvorlig. Vi vil ikke gi eksempler, fordi regjeringsorganisasjonene som regulerer Internett i Russland ennå ikke har kunstig intelligens).

Nevralt nettverk ble trent på prøvene av uttalelsene fra samfunnsmedlemmer kjent for sin fiendtlighet overfor forskjellige grupper av befolkningen. Det nevrale nettverket lærte fra innleggene til Reddit-nettstedet - en plattform der du kan finne et bredt utvalg av interessegrupper, fra borgerrettighetsaktivister til radikale misogynister. Tekstene som ble lastet opp til systemet fornærmet ofte afroamerikanere, overvektige mennesker og kvinner.

Et nevralt nettverk som ble trent på denne måten ga færre falske positiver enn programmer som bestemmer "hatytringer" etter nøkkelord. Systemet fanget rasisme der det ikke var indikatorord i det hele tatt. Men til tross for den gode ytelsen, er ikke skaperne av AI-moderatoren sikre på at deres utvikling vil bli mye brukt. Så langt har hun funnet hatefulle ytringer på Reddit, men om hun vil kunne gjøre det samme på Facebook og andre plattformer er ukjent. Pluss at systemet er ufullkommen, og noen ganger går det glipp av mange av de tilsynelatende uhøflige rasistiske uttalelsene som en søkeordmotor ikke ville gå glipp av. Den eneste som er i stand til å skille en fornærmelse fra en uskyldig vits mens personen forblir.

Anbefalt: