Forsker: Det Er Ingen Grunnleggende Begrensninger For å Lage En Intelligent Maskin - Alternativt Syn

Innholdsfortegnelse:

Forsker: Det Er Ingen Grunnleggende Begrensninger For å Lage En Intelligent Maskin - Alternativt Syn
Forsker: Det Er Ingen Grunnleggende Begrensninger For å Lage En Intelligent Maskin - Alternativt Syn

Video: Forsker: Det Er Ingen Grunnleggende Begrensninger For å Lage En Intelligent Maskin - Alternativt Syn

Video: Forsker: Det Er Ingen Grunnleggende Begrensninger For å Lage En Intelligent Maskin - Alternativt Syn
Video: Leap Motion SDK 2024, Kan
Anonim

Mikhail Burtsev, leder for laboratoriet for nevrale systemer og dyp læring ved Moskva institutt for fysikk og teknologi, snakker om det er mulig å lage en fullverdig datamaskinanalog av menneskesinnet, og forklarer hvorfor forskere utvikler det og hvordan man kan beskytte det mot trollangrep.

I slutten av juli lanserte forskere fra MIPT en internasjonal konkurranse for “talte” kunstige intelligenssystemer som kunne imitere en levende person, og inviterte alle til å snakke med dem og evaluere de resulterende dialogene. Ved hjelp av frivillige håper forskere å lage en stemmeassistent i løpet av de neste tre årene som kan kommunisere med en person nesten like godt som en levende samtalepartner.

Konkurransen ble organisert av forskere fra universitetene i Montreal, McGill og Carnegie Mellon. Du kan delta i testingen av dialogsystemer ved å følge lenken.

Faktisk ble disse ideene ikke oppfunnet i dag - moderne stemmeassistenter fra Google, Apple, Amazon og andre IT-selskaper er forankret i den dype fortiden, helt i begynnelsen av datatiden. Den første slike snakkemaskinen, kalt ELIZA, ble opprettet i 1966 og var faktisk en vits, en parodi på en psykoterapeut som gir ubrukelige råd til en pasient.

I årene og tiårene som fulgte, skapte programmerere mer og mer komplekse og "levende" systemer for å kommunisere med en datamaskin. De mest avanserte av disse systemene kan gjenkjenne stemningen til eieren, huske hans gamle ønsker og preferanser, og løse noen av rutine- og husholdningsoppgavene for ham, bestille mat eller varer i butikken, eller spille rollen som en operatør i kundesentre.

Mikhail, nesten 50 år har gått siden etableringen av ELIZA. Hva har endret seg generelt i løpet av denne tiden og kan i prinsippet forvente at forskere i fremtiden vil være i stand til å skape et slikt system som folk ikke kan skille fra en levende samtalepartner?

- Jeg tror at det i nær fremtid vil være mulig å lage en talet intelligensteknologi som gjør at maskinen kan nærme seg nivået på menneskelig dialog. Vi jobber med denne oppgaven innen iPavlov-prosjektet, som er en del av National Technology Initiative.

Brukeren skal være like komfortabel med å kommunisere med et automatisk dialogsystem som med en levende person. Dette vil gjøre det mulig å lage informasjonssystemer som er i stand til bedre å forstå hva en person ønsker fra dem, og svare på ham på naturlig språk.

Kampanjevideo:

Samtaleintelligens kan brukes til å automatisere mange tale- og tekstgrensesnitt, inkludert budbringere som Telegram. Budbringere, som statistikken viser, brukes i dag mer aktivt enn sosiale nettverk, og en veldig stor mengde informasjon går gjennom tekstkommunikasjonskanaler.

For eksempel er de praktiske å bruke i transport, og tillegg av en interaktiv assistent - en chat bot - vil tillate brukere ikke bare å kommunisere med hverandre, men også å motta den nødvendige informasjonen, foreta kjøp og gjøre mange andre ting. Dette vil føre til at direktemeldinger og stemmeassistenter gradvis vil erstatte de vanlige nettsidene og applikasjonene, og også spille rollen som online konsulenter og spesialister på kundesenter.

Gitt Russland, Google og Amazon i dette markedet, kan Russland konkurrere her? Er det noe spesifikt på russisk som kan hindre potensielle konkurrenter fra russiske selskaper og forskere?

- Selvfølgelig er det russiske språket mer komplekst, og noen av metodene som brukes i dag i utviklingen av dialogsystemer og stemmeassistenter i verden, kan ikke brukes uten raffinement og betydelig modifikasjon som gjør at de kan arbeide med rikere grammatikk.

På den annen side skjuler ingen av de grunnleggende algoritmene som brukes i arbeidet med Siri, Cortana, Google og andre digitale assistenter - de er tilgjengelige for oss i det minste på forsknings- og konseptnivå. Forskningsoppgaver og programkoder er ofte offentlig tilgjengelige - i prinsippet kan den tilpasses russisk.

Mikhail Burtsev, sjef for laboratoriet for nevrale systemer og dyp læring, MIPT
Mikhail Burtsev, sjef for laboratoriet for nevrale systemer og dyp læring, MIPT

Mikhail Burtsev, sjef for laboratoriet for nevrale systemer og dyp læring, MIPT

Videre er det ikke mange forsøk på å implementere dette på "industrielt" nivå. Det eneste store prosjektet drives av Yandex, som utvikler en assistent for Alice-prosjektet.

I vårt prosjekt prøver vi å lage verktøy som forenkler og fremskynder etableringen av slike "industrielle" dialogsystemer designet for en rekke formål. Men å utvikle en universell stemmeassistent som er i stand til å løse ethvert problem, er en ekstremt vanskelig oppgave selv for store selskaper.

På den annen side er det mye lettere å automatisere en liten bedrift som vil bruke et spesialisert dialogsystem. Vi håper at verktøyene vi vil lage vil hjelpe gründere og programmerere med å løse slike problemer raskt nok uten å ha noen dyp kunnskap og uten å bruke superinnsats for dette.

Mange forskere, som Roger Penrose eller Stuart Hameroff, mener at menneskesinnet er kvantemessig og at det i prinsippet er umulig å bygge maskinanalogen. Er du enig med dem eller ikke?

- Etter min mening, hvis vi ser på det vi vet i dag om hjernens struktur og menneskets bevissthet, så har vi foreløpig ingen grunnleggende hindringer for å reprodusere arbeidet sitt ved hjelp av en datamaskin.

Penrose og Hameroff har et sett med hypoteser som de mener forklarer hvorfor dette ikke kan gjøres. Så langt har nevrofysiologer ikke funnet noen eksperimentelle bevis for at disse hypotesene stemmer, og vår nåværende kunnskapsbase taler for det motsatte.

En annen ting er at tidsrammen for når en slik maskin skal opprettes, ikke er fullstendig definert. Det ser ut til at dette kan skje om minst 50 eller til og med 100 år.

Vil dette kreve fundamentalt nye teknologier og datamaskiner som er nærmere i nevrons operasjonsprinsipper enn digital logikk?

- Hvis vi mener at menneskelig intelligens er basert på en eller annen form for beregning, kan ethvert universelt databehandlingssystem, tilsvarende en Turing-maskin, i teorien etterligne menneskets hjerne.

En annen ting er at denne maskinen kan kjøre sakte, noe som vil gjøre den ubrukelig fra et praktisk synspunkt. I dag er det vanskelig å gjette hvilke teknologier for å bygge datamaskiner vi trenger her.

Hvilke andre oppgaver kan digitale assistenter løse, foruten de tingene de gjør i dag? Kan de brukes til å tyde tekster på døde språk eller krypteringer som Voynich-manuskriptet?

- For øyeblikket, så vidt jeg vet, har ingen prøvd å bruke nevrale nettverk for å avdekke hemmelighetene til døde språk og tyde tekster, men det ser ut til at noen vil prøve å gjøre dette i nær fremtid. Vi har i sin tur ennå ikke vært interessert i slike ting.

"Hjelper" er faktisk et veldig bredt konsept som kan inneholde mange veldig forskjellige ting. Hvis vi for eksempel tar den samme ELIZA, en virtuell “psykoterapeut”, oppstår spørsmålet: er hun en assistent eller ikke?

Samtalesystemer kan ikke bare brukes til å løse praktiske problemer, men også for å underholde mennesker eller opprettholde humøret. Spørsmålet her er faktisk hva vi mener med begrepet personlig assistent og hvor bredt eller smalt det er. I vid forstand kan slike systemer løse alle spørsmål knyttet til kommunikasjon, om enn med varierende grad av suksess.

Samtalegrensesnitt, i tillegg til direkte kommunikasjon med mennesker, kan også brukes til å lære maskiner å raskt finne et felles språk og overføre informasjon fra ett system til et annet.

Dette vil omgå problemet med å etablere lenker og overføre data mellom eksisterende og opprettet tjenester, siden de ikke trenger å kjenne hverandres API-spesifikasjoner for å kommunisere med hverandre. De vil være i stand til å utveksle data ved hjelp av naturlige språk eller sitt eget kunstige språk som blir oppfunnet av maskiner eller mennesker for slike formål.

Grovt sett vil selv systemer "ukjente" for hverandre være i stand til å bli enige om å bruke et felles kommunikasjonsspråk for dem, og ikke faste regler for utveksling av informasjon. Hvis noe ikke er klart for dem, kan de spørre hverandre om ukjente ting, noe som vil gjøre hele infrastrukturen for å tilby tjenester og tjenester på Internett utrolig fleksibel og vil tillate det å raskt integrere nye tjenester uten hjelp fra mennesker.

I denne forbindelse oppstår spørsmålet - hvem skal være ansvarlig for anbefalingene fra "psykoterapeuten" ELIZA, dataleger og andre stemmeassistenter, hvis råd i stor grad kan påvirke velvære og helse til en person?

- Dette er et veldig vanskelig spørsmål, siden det i dag ikke er noen klare kriterier som vil hjelpe oss å forstå hvordan vi skal handle i slike tilfeller. Mange Internett-tjenester og tjenester som gir anbefalinger til brukerne, begynner å fungere bare etter at brukeren godtar vilkårene for tjenesten og konsekvensene som kan oppstå som et resultat av å jobbe med den.

Det virker for meg at arbeidet med chatbots og stemmeassistenter - i det minste i de tidlige stadiene av deres eksistens - kunne reguleres på en lignende måte. For eksempel, hvis en bot bare søker og analyserer informasjon, og handler på samme måte som en søkemotor, kan de samme reglene brukes på den. I tilfelle han vil gi medisinsk eller juridisk rådgivning, bør ansvarsformen være annerledes.

For eksempel bør slike systemer tydelig varsle brukeren om konsekvensene av valget mellom kunstig intelligens og en vanlig lege. En person vil ha et valg - å stole på legen, som for eksempel vil ta feil i 10% av tilfellene, eller å satse på en maskin som gir feil svar i 3% av tilfellene. I det første tilfellet vil legen være ansvarlig for feilen, og i det andre brukeren selv.

I fjor lanserte Microsoft Tay. AI chatbot, som den måtte slå av bokstavelig en dag senere fordi nettbrukere gjorde en "tenåringsjente" til en ekte rasist. Er det mulig å beskytte slike dialogsystemer mot troll og spøklere?

- Det ser ut til at du kan beskytte deg selv, men om det er verdt å gjøre det, avhenger av formålet med systemet. Det er klart at hvis systemet ikke skulle gi noen spesifikke bemerkninger - uhøflig eller ekstremistisk, så kan vi filtrere svarene. Denne filtreringen kan skje enten på treningsstadiet, eller allerede under genereringen av svar.

Forresten, en lignende oppgave med å vurdere kvaliteten på dialogen ble løst av team innen rammene av DeepHack Turing vitenskapelige skolehackathon, som fant sted på MIPT for noen uker siden. Deltakerne utviklet algoritmer som kunne forutsi fra signalene i dialogen, hva slags vurdering en person ville gi til dialogsystemet.

Det neste trinnet i utviklingen av denne tilnærmingen er å lage et program som vil vurdere aksept av fraser eller påliteligheten til kilder som brukes til å generere svar på brukerspørsmål. Det virker for meg at det vil hjelpe å løse dette problemet.

Anbefalt: