Den Farligste Kunstige Intelligensen I Verden Er Utviklet: Hva Kan Den Gjøre? - Alternativ Visning

Den Farligste Kunstige Intelligensen I Verden Er Utviklet: Hva Kan Den Gjøre? - Alternativ Visning
Den Farligste Kunstige Intelligensen I Verden Er Utviklet: Hva Kan Den Gjøre? - Alternativ Visning

Video: Den Farligste Kunstige Intelligensen I Verden Er Utviklet: Hva Kan Den Gjøre? - Alternativ Visning

Video: Den Farligste Kunstige Intelligensen I Verden Er Utviklet: Hva Kan Den Gjøre? - Alternativ Visning
Video: Kunstig intelligens: Fantastisk eller farlig? | NTNU Kveld 2024, Kan
Anonim

OpenAI-selskapet, hvor Elon Musk er en av grunnleggerne, kunngjorde opprettelsen av en avansert kunstig intelligens for å skrive originaltekster om et gitt emne. Det var ment å oversette tekster til andre språk, svare på spørsmål og utføre andre nyttige oppgaver, men forskning har vist at det kan være ekstremt farlig og kan brukes av inntrengerne til å lure mennesker på en massiv måte. I denne forbindelse bestemte selskapet seg for å vise publikum bare en begrenset versjon, og holde originalen under den største tillit.

Datamodellen fikk navnet GPT-2 og ble opplært fra 8 millioner websider. Tekstene skrevet på dem danner grunnlaget for nye materialer om et emne satt av en person: for eksempel kan kunstig intelligens komponere et helt essay om de positive aspektene ved søppelgjenvinning eller en fantasihistorie i stilen "Ringenes Herre" Forskerne fant imidlertid også at systemet gjør en utmerket jobb med å skrive falske nyheter om kjendiser, katastrofer og til og med kriger.

For øyeblikket er fullversjonen av tekstgenereringsverktøyet bare tilgjengelig for utviklere og noen bidragsytere til MIT Technology Review. På grunn av det faktum at det kan brukes til ukontrollert opprettelse av falske nyheter og publikasjoner på sosiale nettverk, ble det besluttet å ikke publisere dem i det offentlige domene og å holde det hemmelig.

ScienceAlert delte et eksempel på falske nyheter:

Du kan lese teksten til et kort essay om ulempene med gjenvinning av søppel på OpenAI-bloggen.

Utviklerne innrømmer at språkmodellen ikke er ideell for øyeblikket: systemet tillater noen ganger repetisjon av visse fragmenter av tekst, unaturlig temaskifting og verdensmodellfeil. I et av teststadiene skrev systemet for eksempel om en brann som brant under vann.

Salgsfremmende video:

I følge Open AI Policy Director Jack Clarke, etter et par år, kan en slik algoritme bli til et farlig massevåking av mennesker. Noen kritikere er overbevist om at teknologien ikke på noen måte er farlig, og selskapet rett og slett trekker oppmerksomhet mot seg selv.

Anbefalt: