Ny Teknologi Fra IBM Har Gjort Det Mulig å Akselerere AI-trening Med 4 Ganger - - Alternativ Visning

Ny Teknologi Fra IBM Har Gjort Det Mulig å Akselerere AI-trening Med 4 Ganger - - Alternativ Visning
Ny Teknologi Fra IBM Har Gjort Det Mulig å Akselerere AI-trening Med 4 Ganger - - Alternativ Visning

Video: Ny Teknologi Fra IBM Har Gjort Det Mulig å Akselerere AI-trening Med 4 Ganger - - Alternativ Visning

Video: Ny Teknologi Fra IBM Har Gjort Det Mulig å Akselerere AI-trening Med 4 Ganger - - Alternativ Visning
Video: The Choice is Ours (2016) Official Full Version 2024, Kan
Anonim

Beregningseffektiviteten til kunstig intelligens er som et dobbeltkantet sverd. På den ene siden må det lære seg ganske raskt, men jo mer det nevrale nettverket "akselererer", jo mer bruker det energi. Dette betyr at det rett og slett kan bli ulønnsomt. Imidlertid kan en vei ut av situasjonen gis av IBM, som har demonstrert nye metoder for å undervise i AI, som vil tillate den å lære flere ganger raskere med samme nivå på ressurs- og energikostnader.

For å oppnå disse resultatene, måtte IBM forlate beregningsmetoder ved å bruke 32-bit og 16-bit teknikker, utvikle en 8-bit teknikk, så vel som en ny chip for å jobbe med den.

All IBM-utvikling ble presentert på NeurIPS 2018 i Montreal. Selskapets ingeniører snakket om to utbygginger. Den første kalles "dyp maskinlæring av nevrale nettverk ved bruk av 8-bits flytende punktnumre." I den beskriver de hvordan de klarte å redusere aritmetisk presisjon for applikasjoner fra 32-bit til 16-bit på en slik måte og lagre den på en 8-bit modell. Eksperter hevder at deres teknikk fremskynder treningstiden til dype nevrale nettverk med 2-4 ganger sammenlignet med 16-biters systemer. Den andre utviklingen er "8-biters multiplikasjon i minnet med prosjektert faseovergangshukommelse." Her avdekker eksperter en metode som kompenserer for den lave troverdigheten til analoge AI-brikker ved å la dem forbruke 33 ganger mindre strøm enn sammenlignbare digitale AI-systemer.

Vladimir Kuznetsov