Kunstig Intelligens Ble Nektet Innreise I Fly - Alternativt Syn

Kunstig Intelligens Ble Nektet Innreise I Fly - Alternativt Syn
Kunstig Intelligens Ble Nektet Innreise I Fly - Alternativt Syn

Video: Kunstig Intelligens Ble Nektet Innreise I Fly - Alternativt Syn

Video: Kunstig Intelligens Ble Nektet Innreise I Fly - Alternativt Syn
Video: Автор, журналист, комик: Интервью Пола Красснера - Политическая комедия 2024, Kan
Anonim

Kunstig intelligens i nær fremtid kan ikke bygges inn i utstyr ombord på passasjerfly. Ifølge Aviation Week ble denne konklusjonen nådd av spesialister fra det franske luftfartsforskningssenteret (ONERA) og Thales. Ifølge eksperter lærer moderne systemer med elementer av kunstig intelligens av store datamengder, og av denne grunn er det vanligvis umulig å finne årsaken til feilen, hvis det oppstår feil i arbeidet deres. I tillegg har ikke smarte systemer den funksjonen å forklare en bestemt beslutning de tar.

Et av hovedkravene for sikkerheten til lufttransport er reproduserbarhet av feil og en detaljert forståelse av algoritmene for drift av visse systemer. For eksempel er de fleste moderne passasjerfly utstyrt med andre generasjons antikollisjonssystemer. De skanner stadig rommet foran flyet, og hvis de oppdager et annet fly på kurset, gir pilotene en passende advarsel, samt instruksjoner om hvilke tiltak som må gjøres for å unngå en kollisjon.

Ved den første oppdagelsen av hverandre, vil de nærliggende luftbårne kollisjonssystemene utveksle data og danne hver av instruksjonene til pilotene. Hvis et system i et plan gir ordre om å klatre høyere, vil kommandoen bli gitt til å senke høyden i et annet. Hvis et av systemene mislykkes, kan teknikere deretter finne feilen, reprodusere den og fikse den. Søket etter feil er mulig nettopp på grunn av en detaljert forståelse av algoritmene for drift av standardsystemer.

I følge Virginie Viel, direktør for informasjonssystemer hos ONERA, vil det ikke være noen sertifisering for bruk på passasjerfly til utviklerne har en klar forståelse av nøyaktig hvordan kunstig intelligenssystemer tar beslutninger og hvorfor de tar disse beslutningene. kan ikke. Ifølge ONERA vil det ikke være noen positiv fremgang på dette området i løpet av de neste ti årene.

Thales Chief Technology Officer Marco Erman anslår at de første resultatene i etableringen av intelligente systemer som kan forklare deres beslutninger, kan vises i 2021. Dette betyr imidlertid ikke at slike systemer vil finne veien til passasjerfly. Samtidig forskes det innen kunstige intelligenssystemer for fly aktivt. Det antas at slike systemer på lang sikt vil gjøre det mulig å takle mangelen på piloter, forbedre flysikkerheten og redusere arbeidsbelastningen på piloter.

På slutten av august 2018 beordret Defense Advanced Research Projects Agency (DARPA) fra det amerikanske forsvarsdepartementet det amerikanske selskapet Raytheon å utvikle et nevralt nettverk som kunne forklare hvorfor det tok denne eller den beslutningen i løpet av sitt arbeid. Utviklingen på prosjektet vil bli brukt som en del av et større prosjekt for å lage kampenheter "menneske-robot". Prosjektet for blandet divisjon innebærer at mennesker og roboter vil fungere sammen som partnere.

DARPA mener at for det effektive samspillet mellom soldater og roboter i kamp, er det viktig at folk stoler på sine elektroniske partnere. Tillitsnivået kan økes hvis roboter kan forklare folk hvorfor de tar en bestemt beslutning. Prosjektet med et nevralt nettverk som kunne kommunisere med en person ble kalt XAI (Explainable Artificial Intelligence, Explainable Artificial Intelligence). Det innebærer etablering av et nevralt nettverk som ikke er dårligere enn konvensjonelle nevrale nettverk, men som er i stand til å vise hele analysekjeden, på grunnlag av hvilken den tok en spesifikk beslutning.

Vasily Sychev

Kampanjevideo:

Anbefalt: