Hvorfor Forskere Ikke Bør Stole På Kunstig Intelligens For Vitenskapelig Oppdagelse - Alternativ Visning

Hvorfor Forskere Ikke Bør Stole På Kunstig Intelligens For Vitenskapelig Oppdagelse - Alternativ Visning
Hvorfor Forskere Ikke Bør Stole På Kunstig Intelligens For Vitenskapelig Oppdagelse - Alternativ Visning

Video: Hvorfor Forskere Ikke Bør Stole På Kunstig Intelligens For Vitenskapelig Oppdagelse - Alternativ Visning

Video: Hvorfor Forskere Ikke Bør Stole På Kunstig Intelligens For Vitenskapelig Oppdagelse - Alternativ Visning
Video: Potentialet i kunstig intelligens 2024, Kan
Anonim

Vi lever i en gullalder med vitenskapelige data, omgitt av enorme reserver av genetisk informasjon, medisinsk avbildning og astronomiske data. De nåværende egenskapene til maskinlæringsalgoritmer gjør det mulig for kunstig intelligens å studere disse dataene så raskt og samtidig veldig nøye, og ofte åpne døren for potensielt nye vitenskapelige funn. Vi skal imidlertid ikke stole blindt på resultatene av vitenskapelig forskning utført av AI, sier Rice University-forsker Genever Allen. I hvert fall ikke på det nåværende utviklingsnivået for denne teknologien. Ifølge forskeren ligger problemet i det faktum at moderne AI-systemer ikke har evnen til å vurdere resultatene av arbeidet sitt kritisk.

I følge Allen kan AI-systemer som bruker maskinlæringsmetoder, det vil si når læring skjer i prosessen med å anvende løsninger på mange lignende problemer, og ikke bare ved å innføre og følge nye regler og forskrifter, stole på å ta noen beslutninger. Mer presist er det fullt mulig å tilordne AI oppgaver for å løse problemer på de områdene der det endelige resultatet enkelt kan sjekkes og analyseres av personen selv. Som et eksempel kan vi ta, si, telle antall kratre på månen eller forutsi etterskjelv etter et jordskjelv.

Allenheten er imidlertid mer vanskelig å verifisere nøyaktigheten og effektiviteten til mer komplekse algoritmer som brukes til å analysere veldig store datamengder for å finne og bestemme tidligere ukjente faktorer eller sammenhenger mellom forskjellige funksjoner. Dermed kan umuligheten å verifisere dataene som er matchet med slike algoritmer føre til feilaktige vitenskapelige konklusjoner.

Ta for eksempel presisjonsmedisin, der spesialister analyserer pasientmetadata for å finne spesifikke grupper mennesker med lignende genetiske egenskaper for å utvikle effektive behandlinger. Noen AI-programmer designet for å sile gjennom genetiske data er faktisk effektive til å identifisere grupper av pasienter med lignende disponering, for eksempel å utvikle brystkreft. De viser seg imidlertid å være fullstendig ineffektive når det gjelder å identifisere andre typer kreft, for eksempel kolorektal. Hver algoritme analyserer dataene annerledes, så når du kombinerer resultatene, kan det ofte være en konflikt i klassifiseringen av pasientutvalget. Dette får forskere til å undre seg over hvilken AI som til slutt stoler på.

Disse motsetningene oppstår på grunn av det faktum at algoritmene for dataanalyse er utformet på en slik måte at de overholder instruksjonene som er fastsatt i disse algoritmene, som ikke lar rom for ubesluttsomhet, usikkerhet, forklarer Allen.

Forskere liker ikke usikkerhet. Tradisjonelle metoder for å bestemme måleusikkerheter er imidlertid designet for de tilfeller der det er nødvendig å analysere data som er spesielt valgt for å evaluere en bestemt hypotese. Slik fungerer ikke AI-programmer for data mining. Disse programmene er ikke drevet av noen veiledende idé, og analyserer bare datasett som er samlet inn uten noe særlig spesifikt formål. Derfor utvikler mange AI-forskere, inkludert Allen selv, nå nye protokoller som lar neste generasjons AI-systemer evaluere nøyaktigheten og reproduserbarheten av funnene deres.

Salgsfremmende video:

Forskeren forklarer at en av de nye gruvemetodene vil være basert på konseptet resampling. For eksempel, hvis et AI-system er ment å gjøre en viktig funn, for eksempel identifiserer grupper av pasienter som er klinisk viktige for forskning, bør dette funnet vises i andre databaser. Det er veldig kostbart for forskere å lage nye og større datasett for å validere AI-prøvetaking. I følge Allan kan derfor en tilnærming brukes der "et eksisterende sett med data vil bli brukt, informasjon der vil tilfeldig blandes på en slik måte at det simulerer en helt ny database." Og hvis AI igjen og igjen kan bestemme de karakteristiske funksjonene som gjør det mulig å utføre den nødvendige klassifiseringen, “vil det være mulig å vurdereat du har en virkelig ekte oppdagelse i hendene,”legger Allan til.

Nikolay Khizhnyak

Anbefalt: