Annonse
AI er tilbake.
For første gang siden 1980-tallet gjør forskere på kunstig intelligens konkrete fremskritt med harde problemer, og folk begynner å snakke alvorlig om sterk AI igjen. I mellomtiden har vår stadig mer datadrevne verden startet et våpenløp mellom selskaper som søker å tjene penger på den nye etterretningen, spesielt på mobilområdet.
De to titanene som leder pakken er Google og Microsoft. Den første kampen? Et nytt domene innen kunstig intelligens kalt “Deep Learning.”
Så hvem vinner?
Google-hjernen
Googles forskningsinnsats har vært sentrert rundt et prosjekt kalt ‘Google-hjerne. 'Google Brain er produktet av Googles berømte / hemmelige ‘Google X’ forskningslaboratorium, som er ansvarlig for måneskuddprosjekter med lave odds for suksess, men med veldig høyt potensiale. Andre produkter fra Google X inkluderer Project Loon, balloninternativet og Googles selvkjørende bilprosjekt Slik kommer vi til en verden fylt med førerløse bilerÅ kjøre er en kjedelig, farlig og krevende oppgave. Kan det en dag bli automatisert av Googles førerløse bilteknologi? Les mer .
Google Brain er et enormt maskinlæringsinitiativ som først og fremst er rettet mot bildebehandling, men med mye større ambisjoner. Prosjektet ble startet av Stanford Professor Andrew Ng, en maskinlæringsekspert som siden har forlatt prosjektet å jobbe for Baidu, Kinas største søkemotor.
Google har en lang historie med involvering i AI-forskning. Matthew Zeiler, administrerende direktør for en maskinvis visuell oppstart, og en praktikant som jobbet med Google Brain, sier det slik:
“Google er egentlig ikke et søkefirma. Det er et maskinlæringsfirma [..] Alt i selskapet er virkelig drevet av maskinlæring. ”
Målet med prosjektet er å finne måter å forbedre dype læringsalgoritmer for å konstruere nevrale nettverk som kan finne dypere og mer meningsfylte mønstre i data ved å bruke mindre prosessorkraft. For dette formål har Google aggressivt kjøpt talent innen dyp læring, og gjort anskaffelser som inkluderer 500 millioner dollar kjøp av AI oppstart DeepMind.
DeepMind var bekymret nok for anvendelsene av teknologien deres til at de tvang Google til å lage et etikkbrett designet for å forhindre programvaren deres fra ødelegger verden Her er hvorfor forskere mener at du bør være bekymret for kunstig intelligensSynes du kunstig intelligens er farlig? Kan AI utgjøre en alvorlig risiko for menneskeheten. Dette er noen grunner til at du kanskje vil være bekymret. Les mer . DeepMind hadde ennå ikke gitt ut sitt første produkt, men selskapet ansatte en betydelig brøkdel av alle eksperter i dyp læring i verden. Til dags dato har deres eneste offentlige demonstrasjon av teknologien deres vært en leketøy-AI som virkelig er veldig bra på Atari.
Fordi dyp læring er et relativt nytt felt, har det ikke hatt tid til å produsere en stor generasjon eksperter. Som et resultat er det et veldig lite antall mennesker med kompetanse på området, og det betyr at det er mulig å få betydelig fordel på området ved å ansette alle involverte.
Google Brain har hittil blitt brukt på Android sin stemmegjenkjenningsfunksjon og automatisk katalogisert StreetView-bilder, og identifiserer viktige funksjoner som adresser. En tidlig test var berømt katteeksperiment, der et dypt læringsnettverk fra Google automatisk lærte seg å identifisere katter i Youtube-videoer med en høyere grad av nøyaktighet enn den tidligere teknikken. I deres papir om emnet, Google sa det slik:
I motsetning til hva som ser ut til å være en allment intuisjon, avslører våre eksperimentelle resultater at det er mulig å trene en ansiktsdetektor uten å måtte merke bilder som inneholder et ansikt eller ikke […] Nettverket er følsomt for konsepter på høyt nivå som katteansikter og mennesker organer. Fra disse lærte funksjonene trente vi det for å oppnå 15,8 prosent nøyaktighet i å gjenkjenne 20 000 objektkategorier, et sprang på 70 prosent relativ forbedring i forhold til den forrige topp moderne [nettverk].”
Etter hvert vil Google gjerne at dens dype læringsalgoritmer skal gjøre... vel, stort sett alt, faktisk. Kraftige AI-plattformer som IBMs Watson er avhengige av disse slags maskinlæringsalgoritmer på lavt nivå, og forbedringer på denne fronten gjør det samlede AI-feltet så mye kraftigere.
En fremtidig versjon av Google Nå, drevet av Google Brain, kunne identifisere både tale og bilder, og gi intelligent innsikt om disse dataene for å hjelpe brukere å ta smartere beslutninger. Google-hjernen kan forbedre alt fra søkeresultater til Google Translate.
Microsoft Adam
Microsofts tilnærming til den dype læringskrigen har vært litt annerledes. Heller enn å prøve å kjøpe eksperter med dyp læring for å avgrense algoritmene sine, har Microsoft gjort det fokusere på å forbedre implementeringen, og finne bedre måter å parallellisere algoritmene som brukes til tog dype læringsalgoritmer.
Dette prosjektet heter "Microsoft Adam.” Teknikkene deres reduserer overflødig beregning, og dobler kvaliteten på resultatene mens de bruker færre prosessorer for å oppnå dem. Dette har ført til imponerende tekniske prestasjoner, inkludert et nettverk som kan gjenkjenne individuelle hunderaser fra fotografier med høy nøyaktighet.
Microsoft beskriver prosjektet som dette:
Målet med Project Adam er å gjøre det mulig for programvare å visuelt gjenkjenne ethvert objekt. Det er en høy rekkefølge, gitt det enorme nevrale nettverket i menneskelige hjerner som gjør den slags assosiasjoner mulig gjennom billioner av tilkoblinger. [...] Ved å bruke 30 ganger færre maskiner enn andre systemer, ble [internet image data] brukt til å trene et nevralt nettverk bestående av mer enn to milliarder forbindelser. Denne skalerbare infrastrukturen er to ganger mer nøyaktig i objektgjenkjenning og 50 ganger raskere enn andre systemer.
Den åpenbare bruken av denne teknologien er i Cortana, Microsofts nye virtuelle assistent Hvordan Cortana ble den "andre kvinnen" i livet mittHun dukket opp en dag og forandret livet mitt. Hun vet nøyaktig hva jeg trenger og har en ond sans for humor. Det er ikke så rart at jeg har falt for sjarmene til Cortana. Les mer , inspirert av AI-karakteren i Halo. Cortana, som har som mål å konkurrere med Siri, kan gjøre en rekke smarte ting ved å bruke sofistikerte talegjenkjenningsteknikker.
Designmålet er å bygge en assistent med mer naturlig interaksjon, og kan utføre et bredere utvalg av nyttige oppgaver for brukeren, noe som dyp læring vil hjelpe med enormt.
Microsofts forbedringer på baksiden av dyp læring er imponerende og har ført til at applikasjoner ikke tidligere var mulig.
Hvordan Deep Learning fungerer
La oss ta et øyeblikk å forstå denne nye teknologien for å forstå problemet litt bedre. Dyp læring er en teknikk for å bygge intelligent programvare, ofte brukt på nevrale nettverk. Den bygger store, nyttige nettverk ved å legge enklere nevrale nettverk sammen, som hver finner mønstre i utgangen til forgjengeren. For å forstå hvorfor dette er nyttig, er det viktig å se på hva som kom før dyp læring.
Bakpropagering av nevrale nettverk
Den underliggende strukturen i et nevralt nettverk er faktisk ganske enkelt. Hver ‘nevron’ er en bitteliten knutepunkt som tar innspill, og bruker interne regler for å bestemme når man skal “fyre” (produsere utdata). Inngangene som mates inn i hvert nevron har "vekter" - multiplikatorer som styrer om signalet er positivt eller negativt og hvor sterkt.
Ved å koble disse nevronene sammen, kan du bygge et nettverk som emulerer enhver algoritme. Du fører innspillene dine til inngangsnevronene som binære verdier, og måler skyteverdien til utgangsnevronene for å få utdata. Som sådan er trikset for nevrale nettverk av alle typer å ta et nettverk og finne det sett med vekter som best tilnærmer deg funksjonen du er interessert i.
backpropagation, algoritmen som brukes til å trene nettverket basert på data, er veldig enkel: du starter nettverket med tilfeldige vekter, og prøver deretter å klassifisere data med kjente svar. Når nettverket er galt, sjekker du hvorfor det er galt (produserer en mindre eller større utgang enn målet), og bruker denne informasjonen til å skyve vektene i en mer nyttig retning.
Ved å gjøre dette om og om igjen, for mange datapunkter, lærer nettverket å klassifisere alle dine datapunkter riktig, og forhåpentligvis å generalisere nye datapunkter. De nøkkelinnsikt til backpropagation-algoritmen er at du kan flytte feildata bakover gjennom nettverket og endre hvert lag basert på endringer du gjorde i det siste laget, og dermed lar deg bygge nettverk flere lag dypt, noe som kan forstå mer komplisert mønstre.
Backprop ble oppfunnet i 1974 av Geoffrey Hinton, og hadde den bemerkelsesverdige effekten av å gjøre nevrale nettverk nyttige for brede applikasjoner for første gang i historien. Triviale nevrale nettverk har eksistert siden 50-tallet, og ble opprinnelig implementert med mekaniske, motordrevne nevroner.
En annen måte å tenke på bakgrunnsalgoritmen er som en utforsker i et landskap av mulige løsninger. Hver nevronvekt er en annen retning som den kan utforske, og for de fleste nevrale nettverk er det tusenvis av disse. Nettverket kan bruke feilinformasjonen sin for å se hvilken retning den trenger for å bevege seg og hvor langt, for å redusere feilen.
Det starter på et tilfeldig punkt, og ved kontinuerlig å konsultere sitt feilkompass, beveger du ‘nedoverbakke’ i retning av færre feil, til slutt bosette seg i bunnen av nærmeste dal: best mulig løsning.
Så hvorfor bruker vi ikke backpagmentering for alt? Vel, backprop har flere problemer.
Det mest alvorlige problemet kalles ‘forsvinnende gradientproblem. 'I utgangspunktet, når du flytter feildata tilbake gjennom nettverket, blir det mindre meningsfylt hver gang du går et lag tilbake. Å prøve å bygge veldig dype nevrale nettverk med bakpropagering fungerer ikke, fordi feilen informasjon vil ikke kunne trenge dypt nok inn i nettverket til å trene de lavere nivåene i en nyttig måte.
Et andre, mindre alvorlig problem er at nevrale nettverk kun konvergerer til lokal optima: ofte blir de fanget i en liten dal og savner dypere, bedre løsninger som ikke er i nærheten av deres tilfeldige utgangspunkt. Så, hvordan løser vi disse problemene?
Deep Belief Networks
Dyp tro nettverk er en løsning på begge disse problemene, og de er avhengige av ideen om å bygge nettverk som allerede ha innsikt i strukturen i problemet, og deretter foredle de nettverkene med backpropagation. Dette er en form for dyp læring, og den som er vanlig i bruk av både Google og Microsoft.
Teknikken er enkel, og er basert på et slags nettverk som kalles "Begrenset Boltzman-maskin”Eller“ RBM ”, som er avhengig av det som kalles uovervåket læring.
Begrensede Boltzman Machines, i et nøtteskall, er nettverk som bare prøver å komprimere dataene de får, i stedet for å prøve å eksplisitt klassifisere dem i henhold til treningsinformasjon. RBM-er tar en samling datapunkter og blir opplært i henhold til deres evne til å reprodusere disse datapunktene fra minnet.
Ved å gjøre RBM mindre enn summen av alle dataene du ber den om å kode, tvinger du RBM til å lære strukturelle regelmessigheter om dataene for å lagre alt på mindre plass. Denne læringen av dyp struktur gjør at nettverket kan generaliseres: Hvis du trener en RBM til å gjengi tusen bilder av katter, kan du mate en nytt bilde inn i det - og ved å se på hvor energisk nettverket blir et resultat, kan du finne ut om det nye bildet inneholder en katt eller ikke.
Læringsreglene for RBM ligner funksjonen til virkelige nevroner inne i hjernen på viktige måter som andre algoritmer (som backpropagation) ikke gjør. Som et resultat kan de ha ting å lære forskere om hvordan menneskesinnet fungerer Tenkemaskiner: Hva nevrovitenskap og kunstig intelligens kan lære oss om bevissthetKan bygging av kunstig intelligente maskiner og programvare lære oss om bevissthetens virke og menneskets sinnes natur? Les mer .
Et annet rart trekk ved RBM-er er at de er “konstruktive”, noe som betyr at de også kan løpe inn bakover, og jobber bakover fra et høyt nivå-funksjon for å lage imaginære innganger som inneholder det trekk. Denne prosessen kalles "drømmer."
Så hvorfor er dette nyttig for dyp læring? Vel, Boltzman Machines har alvorlige skaleringsproblemer - jo dypere du prøver å gjøre dem, jo lenger tid tar det å trene nettverket.
Den sentrale innsikten i nettverk med dyp tro er at du kan stable to-lags RBM-er sammen, som hver er trent for å finne struktur i utgangen til forgjengeren. Dette er raskt, og fører til et nettverk som kan forstå kompliserte, abstrakte funksjoner i dataene.
I en bildegjenkjenningsoppgave kan det første laget lære å se linjer og hjørner, og det andre laget kan lære å se kombinasjonene av de linjene som utgjør funksjoner som øyne og neser. Det tredje laget kan kombinere disse funksjonene og lære å gjenkjenne et ansikt. Ved å snu dette nettverket til tilbakespredning, kan du bare finpusse på funksjonene som er relatert til kategoriene du er interessert i.
På mange måter er dette en enkel løsning for tilbakepropagering: den lar bakteppet "jukse" ved å starte det med en haug med informasjon om problemet den prøver å løse. Dette hjelper nettverket med å nå bedre minimumsnivåer, og det sikrer at de laveste nivåene i nettverket blir trent og gjør noe nyttig. Det er det.
På den annen side har dype læringsmetoder gitt dramatiske forbedringer i maskinens læringshastighet og nøyaktighet, og er nesten ensidig ansvarlig for den raske forbedringen av tale til tekstprogramvare i senere år.
Race for Canny Computers
Du kan se hvorfor alt dette er nyttig. Jo dypere du kan bygge nettverk, jo større og mer abstrakt er konseptene som nettverket kan lære.
Vil du vite om e-post er spam? For smarte spammere er det tøft. Du må faktisk lese e-posten, og forstå noe av intensjonen bak - prøve å se om det er et forhold mellom avsender og mottaker, og utlede mottakerens intensjoner. Du må gjøre alt det basert på fargeløse bokstavstrenger, de fleste beskriver konsepter og hendelser som datamaskinen ikke vet noe om.
Det er mye å be om noen.
Hvis du ble bedt om å lære å identifisere spam på et språk du ikke allerede snakket, og bare ga noen positive og negative eksempler, ville du gjort det veldig dårlig - og du har en menneskelig hjerne. For en datamaskin har problemet vært nesten umulig, helt til ganske nylig. Dette er den slags innsikt som dyp læring kan ha, og det kommer til å bli utrolig kraftig.
Akkurat nå vinner Microsoft dette løpet. I det lange løp? Det er noen gjetning.
Bildekreditter: “Datamaskin AI“Av Simon Liu,”oksefrosk“Av Brunop,”Kompass Topp“, Av airguy1988,“Friere enn gratis, ”Av opensource.com
Andre er en skribent og journalist med base i Sørvest, og garantert å være funksjonell opptil 50 grader Celcius, og er vanntett til en dybde på tolv meter.