Kunstig Intelligens: En Farlig Fiende Eller En Snill Hjelper - Alternativ Visning

Kunstig Intelligens: En Farlig Fiende Eller En Snill Hjelper - Alternativ Visning
Kunstig Intelligens: En Farlig Fiende Eller En Snill Hjelper - Alternativ Visning
Anonim

Bruken av kunstig intelligens (AI) i hverdagen får raskt fart, men denne trenden skaper stadig mer bekymring for spesialister. NYU-ansatte utarbeidet en advarsel om risikoen ved å bruke I. I. For det meste fokuserte forfatterne på etiske og sosiale spørsmål, samt på mangelen på regulering. Rapporten fra AI Now-gruppen sier lite nytt, men i verdenspraksis blir spørsmålet om behovet for å begrense arbeidet med kunstig tenking stadig oftere reist.

Nesten alle visjonære om teknologisk fremgang snakket om de potensielle truslene mot AI. Stephen Hawking i november i fjor ga uttrykk for de viktigste fryktene som fulgte med refleksjoner rundt utviklingen av teknologi. Etter hans mening vil datamaskiner før eller siden lære å reprodusere seg selv. Biologiske vesener vil sannsynligvis tape på silisiumintelligens både i mentale evner og i form av tilpasningsevne til miljøet, spesielt på en annen planet. Før eller siden vil smarte roboter betrakte mennesker som en foreldet form og vil kvitte seg med dem.

Hawkings ord høres fremdeles ut som en skrekkhistorie, spilt flere titalls ganger i filmer og bøker, men selv de som jobber med implementering av smarte systemer har blitt stadig mer redd for fremtiden med AI, selv om det er de som anser slik frykt for tidlig. "Å frykte utviklingen av AI i dag er som å bekymre seg for overbefolkningen av Mars," sa Andrew Ng, leder for Google Brain. Imidlertid beroliget han ikke alle.

Image
Image

Av de største fobierene som er knyttet til introduksjonen av en datamaskin i alle livsområder, er tre verdt å merke seg. For det første vil datamaskinsinnet bli brukt som krigsvåpen, som i betydelig grad vil overgå selv atomvåpen i ødeleggende kraft. Det andre er at AI vil slavever mennesker. For det tredje, som enhver menneskelig skapelse, er datamaskinen feilutsatt. Alle tre punkter kan diskuteres mer detaljert.

21. august 2017 sendte ledende eksperter innen forskning og implementering av kunstig intelligens, inkludert sjefer for selskaper som SpaceX og Deep Mind, et åpent brev til FN. I teksten advarte de verdenssamfunnet mot å utvikle dødelige autonome våpen, det være seg roboter eller andre mekanismer designet for å drepe fienden. Forfatterne av dokumentet trakk oppmerksomhet til de fatale konsekvensene av bruken av slike våpen. Med sin fenomenale effektivitet er det rettferdig å spørre hvilke hender den vil falle i. Det kan brukes av både en smal krets av eliter og terrorister.

Forfatterne av brevet ba kontrollorganisasjonen, og med det det vitenskapelige samfunnet, om å skissere omfanget av den skadelige bruken av AI. Ansvaret en person står overfor for sin egen skapelse forplikter ham til å utføre alvorlig arbeid for å forhindre risiko. I tillegg til lover, må skaperne deres også begrense kraften til roboter, som vil måtte pusle rundt hvordan de skal slå av maskiner i ekstreme tilfeller.

Image
Image

Salgsfremmende video:

Det politiske misbruket av elektroniske systemer er allerede demonstrert gjennom arbeidet med sosiale nettverk og dataanalysealgoritmer. Våren i år tordnet en skandale med Cambridge Analytica i hele verden. Spesialistene gjennomførte en grundig analyse av brukerdata og plasserte annonser på Facebook, tilpasset individuelt for hver person.

Selskapets ansatte krysset ikke bare de etiske rammene, men brukte også moderne teknologier, hvis arbeid var umulig å analysere. Effektiviteten av maskinlæring er et tilbakevendende tema blant ledende matematikere. De innrømmer unisont at de er forundret over den ekstraordinære suksessen til dataprogrammer, men at de ikke helt kan forstå arbeidet med et komplekst system. I Myanmar i april i år forårsaket Facebook-innlegg også uro blant massene, men i motsetning til USA, der det ble gjort protester, var det i den asiatiske staten en massakre, som drepte flere hundre mennesker. Manipulering av et enormt antall mennesker er en realitet, og roboter her kan spille en grusom vits med oss.

Image
Image

Det er verdt å huske den samme Facebook, der AI-baserte chatbots ble lansert. Virtuelle assistenter ble opplært til å føre en dialog med samtalepartneren. Over tid ble roboter ukjennelige fra virkelige mennesker, og da bestemte forfatterne seg for å bringe robotene sammen. Over tid begynte roboter å forkorte leksikalske strukturer og utveksle gibberish. Mediene blåste opp en sensasjon fra nyhetene, de sier at "maskinene gjorde opprør." Men hvis man legger overdrivelsen av journalister til side, er det rettferdig å innrømme at i tilfelle når maskiner begynner å kommunisere med hverandre, kan det hende at en person ikke legger merke til dette. Og hvordan de vil leve sine egne liv der - ingen vet.

Datasinnets stadig mer komplekse struktur beveger oss bort fra å forstå prinsippene for dets arbeid. Men mens de fleste algoritmer gjør jobben sin, er selv i dag komplekse maskiner langt fra ideelle og gjør feil. For videreutvikling av AI er det viktig å forstå ikke så mye styrker som sårbarheter. Det er på dette et stort antall vitenskapelige grupper er fokusert, hvorav den ene er en spesialist fra MIT Anish atali. For bare et par dager siden fortalte han reportere om de vanligste feilene i systemer for bildegjenkjenning.

Hans kolleger demonstrerte objekter til maskinen og fant ut at ofte enkeltobjekter ble oppfattet feil av elektronisk syn. Datamaskinen kunne kalle en baseball en kopp kaffe, og en 3D-trykt skilpadde en hærmaskin. Gruppen har allerede samlet rundt 200 elementer som er villedende algoritmer.

Image
Image

Kunstig intelligens, i stedet for å oppfatte et objekt som en helhet, konsentrerte seg om dets individuelle parametere. AI har en tendens til å lære av en "perfekt" prøve. Når han blir møtt med avvikende fenomener, kan han ikke alltid forlate den vanlige prosesseringsprosessen. I stedet for å innrømme at han ikke er i stand til å behandle bildet, fortsetter han å prøve å lese bildet, og dette fører til noen ganger morsomme resultater. I stedet for formen på en skilpadde, prøvde den elektroniske hjernen å lese strukturen, lik kamuflasje. Av omtrent samme grunn er ikke autopiloter for e-biler ennå 100% pålitelige. Det er vanskelig for en bil å se silhuetten og anta at den består av separate elementer.

Og hvis det i de kommende årene er noen mangler som kan rettes, er det ingen garanti for at hackere ikke vil utnytte sårbarheten. Hackere av elektroniske enheter i dag representerer nesten den viktigste årsaken til frykt. Et lite team av programmerere kan ikke bare få tilgang til personlig informasjon, men også konfigurere autonome systemer og ta kontroll over verktøy for kolossal makt. Og så vil vi alle være i trøbbel. Men hovedkonklusjonen som kan trekkes er kanskje den tradisjonelle - du skal ikke være redd for biler, men folk.

Alexander Lavrenov

Anbefalt: