
Gabriel Brooks
0
3437
327
AI er tilbage.
For første gang siden 1980'erne gør kunstige intelligensforskere konkrete fremskridt med hårde problemer, og folk begynder at tale alvorligt om stærk AI igen. I mellemtiden har vores stadig mere datadrevne verden startet et våbenløb mellem virksomheder, der søger at tjene penge på den nye efterretning, især i det mobile rum.
De to titaner, der fører pakken, er Google og Microsoft. Den første kamp? Et nyt domæne inden for kunstig intelligens kaldet “Deep Learning.”
Så hvem vinder?
Google-hjernen
Googles forskningsindsats har været centreret omkring et projekt kaldet 'Google Brain'. Google Brain er produktet af Googles berømte / hemmelige 'Google X' forskningslaboratorium, der er ansvarlig for måneskudsprojekter med lave odds for succes, men med meget stort potentiale. Andre produkter fra Google X inkluderer Project Loon, balloninternetinitiativet og Googles selvkørende bilprojekt. Sådan kommer vi til en verden fyldt med førerløse biler. Sådan kommer vi til en verden fyldt med førerløse biler Kørsel er en kedelig, farlig og krævende opgave. Kunne det en dag blive automatiseret af Googles førerløse bilteknologi? .
Google Brain er et enormt maskinlæringsinitiativ, der primært er rettet mod billedbehandling, men med meget større ambitioner. Projektet blev startet af Stanford Professor Andrew Ng, en maskinlæringsekspert, der siden har forladt projektet for at arbejde for Baidu, Kinas største søgemaskine.
Google har en lang historie med involvering i AI-forskning. Matthew Zeiler, administrerende direktør for en maskinevisuel opstart, og en praktikant, der arbejdede på Google Brain, udtrykker det sådan:
“Google er ikke rigtig en søgefirma. Det er en maskinlæringsvirksomhed […] Alt i virksomheden er virkelig drevet af maskinlæring.”
Målet med projektet er at finde måder at forbedre dybe indlæringsalgoritmer til at konstruere neurale netværk, der kan finde dybere og mere meningsfulde mønstre i data ved hjælp af mindre behandlingskraft. Med henblik herpå har Google aggressivt opkøbt talent inden for dyb læring og foretaget anskaffelser, der inkluderer 500 millioner dollars køb af AI-opstart DeepMind.
DeepMind var bekymret nok over anvendelserne af deres teknologi, som de tvang Google til at oprette et etisk kort, der er designet til at forhindre, at deres software ødelægger verden. Derfor er forskere mener, at du skal være bekymret for kunstig intelligens. Synes du, at kunstig intelligens er farlig? Kan AI udgøre en alvorlig risiko for den menneskelige race. Dette er nogle af grundene til, at du måske vil være bekymret. . DeepMind havde endnu ikke frigivet sit første produkt, men virksomheden beskæftigede en betydelig del af alle eksperter i dyb læring i verden. Hidtil har deres eneste offentlige demonstration af deres teknologi været et legetøj AI, der virkelig er rigtig godt til Atari.
Fordi dyb læring er et relativt nyt felt, har det ikke haft tid til at producere en stor generation af eksperter. Som et resultat er der et meget lille antal mennesker med ekspertise i området, og det betyder, at det er muligt at få betydelig fordel på området ved at ansætte alle involverede.
Google-hjerne er hidtil blevet anvendt til Android's stemmegenkendelsesfunktion og til automatisk at katalogisere StreetView-billeder ved at identificere vigtige funktioner som adresser. En tidlig test var det berømte katteeksperiment, hvor et dybt læringsnetværk fra Google automatisk lærte at identificere katte i Youtube-videoer med en højere grad af nøjagtighed end den kendte teknik. I deres artikel om emnet sagde Google det sådan:
“I modsætning til hvad der ser ud til at være en almindelig intuition, afslører vores eksperimentelle resultater, at det er muligt at træne en ansigtsdetektor uden at skulle mærke billeder som et ansigt eller ikke […] Netværket er følsomt over for koncepter på højt niveau som f.eks. kat ansigter og menneskelige kroppe. Fra disse lærte funktioner trænede vi det til at opnå 15,8 procent nøjagtighed i genkendelse af 20.000 objektkategorier, et spring på 70 procent relativ forbedring i forhold til de tidligere avancerede [netværk].”
Til sidst vil Google gerne have, at dens dybe indlæringsalgoritmer gør… godt, stort set alt faktisk. Kraftfulde AI-platforme som IBMs Watson er afhængige af disse slags maskinlæringsalgoritmer på lavt niveau, og forbedringer på dette front gør det samlede AI-felt så meget mere kraftfuldt.
En fremtidig version af Google Now, drevet af Google Hjerner, kunne identificere både tale og billeder og give intelligent indsigt om disse data for at hjælpe brugerne med at tage smartere beslutninger. Google hjerne kunne forbedre alt fra søgeresultater til Google Translate.
Microsoft Adam
Microsofts tilgang til den dybe læringskrig har været lidt anderledes. I stedet for at forsøge at købe dybe læringseksperter til at forfine deres algoritmer, har Microsoft fokuseret på at forbedre implementeringen og finde bedre måder at parallelisere de algoritmer, der blev brugt til tog dyb læringsalgoritmer.
Dette projekt kaldes “Microsoft Adam.” Deres teknikker reducerer overflødig beregning og fordobler kvaliteten af resultaterne, mens de bruger færre processorer til at få dem. Dette har ført til imponerende tekniske resultater, herunder et netværk, der kan genkende individuelle hundeacer fra fotografier med høj nøjagtighed.
Microsoft beskriver projektet sådan:
Målet med Project Adam er at give software mulighed for visuelt at genkende ethvert objekt. Det er en høj rækkefølge, i betragtning af det enorme neurale netværk i menneskelige hjerner, der gør disse slags foreninger mulige gennem billioner af forbindelser. […] Ved hjælp af 30 gange færre maskiner end andre systemer blev [internet-billeddata] brugt til at træne et neuralt netværk lavet op på mere end to milliarder forbindelser. Denne skalerbare infrastruktur er to gange mere nøjagtig i sin objektgenkendelse og 50 gange hurtigere end andre systemer.
Den åbenlyse anvendelse af denne teknologi findes i Cortana, Microsofts nye virtuelle assistent. Hvordan blev Cortana "den anden kvinde" i mit liv. Hvordan blev Cortana den "anden kvinde" i mit liv. Hun optrådte en dag og ændrede mit liv. Hun ved nøjagtigt hvad jeg har brug for og har en ond sans for humor. Det er ikke så underligt, at jeg er faldet for charmen fra Cortana. , inspireret af AI-karakteren i Halo. Cortana, der sigter mod at konkurrere med Siri, kan gøre en række smarte ting ved hjælp af avancerede talegenkendelsesteknikker.
Designmålet er at opbygge en assistent med mere naturlig interaktion og kan udføre en bredere vifte af nyttige opgaver for brugeren, noget som dyb læring ville hjælpe med enormt.
Microsofts forbedringer i bagenden af dyb læring er imponerende og har ført til applikationer, der ikke tidligere var mulige.
Sådan fungerer dyb læring
For at forstå problemet lidt bedre, lad os tage et minut at forstå denne nye teknologi. Deep learning er en teknik til at opbygge intelligent software, der ofte anvendes til neurale netværk. Det bygger store, nyttige netværk ved at lægge enklere neurale netværk sammen, som hver finder mønstre i output fra sin forgænger. For at forstå, hvorfor dette er nyttigt, er det vigtigt at se på, hvad der kom før dyb læring.
Bagpropagering af neurale netværk
Den underliggende struktur i et neuralt netværk er faktisk temmelig enkelt. Hver 'neuron' er en lille knude, der tager et input, og bruger interne regler til at beslutte, hvornår de skal “ild” (producerer output). Indgange, der fodrer ind i hver neuron, har “vægte” - multiplikatorer, der styrer om signalet er positivt eller negativt og hvor stærkt.
Ved at forbinde disse neuroner sammen kan du opbygge et netværk, der emulerer enhver algoritme. Du indtaster dine input til inputneuronerne som binære værdier og måler afskydningsværdien af outputnervonerne for at få output. Som sådan er tricket til neurale netværk af enhver type at tage et netværk og finde det sæt vægte, der bedst matcher den funktion, du er interesseret i.
Backpropagation, den algoritme, der bruges til at træne netværket baseret på data, er meget enkel: du starter dit netværk med tilfældige vægte og prøver derefter at klassificere data med kendte svar. Når netværket er forkert, kontrollerer du, hvorfor det er forkert (producerer en mindre eller større output end målet), og bruger disse oplysninger til at skubbe vægterne i en mere hjælpsom retning.
Ved at gøre dette igen og igen, for mange datapunkter, lærer netværket at klassificere alle dine datapunkter korrekt, og forhåbentlig at generalisere nye datapunkter. Den vigtigste indsigt i bagpropagationsalgoritmen er, at du kan flytte fejldata bagud gennem netværket og ændre hvert lag baseret på de ændringer, du har foretaget i det sidste lag, og således give dig mulighed for at opbygge netværk flere lag dybt, hvilket kan forstå mere komplicerede mønstre.
Backprop blev opfundet i 1974 af Geoffrey Hinton og havde den bemærkelsesværdige virkning af at gøre neurale netværk nyttige til brede applikationer for første gang i historien. Triviale neurale netværk har eksisteret siden 50'erne og blev oprindeligt implementeret med mekaniske, motordrevne neuroner.
En anden måde at tænke på baggrundsalgoritmen er som en udforsker i et landskab af mulige løsninger. Hver neuronvægt er en anden retning, i hvilken den kan udforske, og for de fleste neurale netværk er der tusinder af disse. Netværket kan bruge sine fejloplysninger til at se, hvilken retning det har brug for at bevæge sig i og hvor langt for at reducere fejlen.
Det starter på et tilfældigt punkt, og ved løbende at konsultere dets fejlkompass, bevæger 'ned ad bakke' i retning af færre fejl og til sidst sætter sig ned i bunden af den nærmeste dal: den bedst mulige løsning.
Så hvorfor bruger vi ikke backpropagation til alt? Nå, backprop har flere problemer.
Det mest alvorlige problem kaldes 'forsvindende gradientproblem'. Når du flytter fejldata tilbage gennem netværket, bliver det mindre meningsfuldt, hver gang du går et lag tilbage. Forsøg på at opbygge meget dybe neurale netværk med backpropagation fungerer ikke, fordi fejlinformationen ikke vil være i stand til at trænge dybt nok ind i netværket til at træne de lavere niveauer på en nyttig måde.
Et andet, mindre alvorligt problem er, at neurale netværk kun konvergerer til lokale optima: ofte bliver de fanget i en lille dal og går glip af dybere, bedre løsninger, der ikke er i nærheden af deres tilfældige udgangspunkt. Så hvordan løser vi disse problemer?
Deep Belief Networks
Netværk med dybt overbevisning er en løsning på begge disse problemer, og de er afhængige af ideen om at opbygge netværk, der allerede har indsigt i problemets struktur, og derefter foredle disse netværk med bagpropagering. Dette er en form for dyb læring og den, der er almindeligt anvendt af både Google og Microsoft.
Teknikken er enkel og er baseret på et slags netværk kaldet a “Begrænset Boltzman-maskine” eller “RBM”, som er afhængig af det, der er kendt som uovervåget læring.
Begrænsede Boltzman Machines er i en nøddeskal netværk, der simpelthen forsøger at komprimere de data, de får, snarere end at forsøge at eksplicit klassificere dem i henhold til træningsinformation. RBM'er tager en samling datapunkter og trænes i henhold til deres evne til at gengive disse datapunkter fra hukommelsen.
Ved at gøre RBM mindre end summen af alle de data, du beder den om at kode, tvinger du RBM'en til at lære strukturelle regelmæssigheder om dataene for at gemme det hele på mindre plads. Denne indlæring af dyb struktur giver netværket mulighed for at generalisere: Hvis du træner en RBM til at gengive tusind billeder af katte, kan du derefter tilføje et nyt billede ind i det - og ved at se på, hvor energisk netværket bliver et resultat, kan du finde ud af om det nye billede indeholdt en kat eller ej.
Læringsreglerne for RBM ligner funktionen af virkelige neuroner inde i hjernen på vigtige måder, som andre algoritmer (som backpropagation) ikke gør. Som et resultat kan de have ting at lære forskere om, hvordan det menneskelige sind fungerer Tænkemaskiner: Hvad neurovidenskab og kunstig intelligens kan lære os om bevidsthed Tænkemaskiner: Hvad neurovidenskab og kunstig intelligens kan lære os om bevidsthed Kan bygge kunstigt intelligente maskiner og software lær os om bevidsthedens arbejde og selve menneskesindets natur? .
En anden pæn funktion ved RBM'er er, at de er “konstruktiv”, hvilket betyder, at de også kan løbe baglæns og arbejde baglæns fra en funktion på højt niveau for at skabe imaginære input, der indeholder denne funktion. Denne proces kaldes “drømmer.”
Så hvorfor er dette nyttigt til dyb læring? Nå, Boltzman Machines har alvorlige skaleringsproblemer - jo dybere du prøver at gøre dem, jo længere tid tager det at træne netværket.
Den centrale indsigt i dybt overbevisende netværk er, at du kan stakle to-lags RBM'er sammen, som hver er uddannet til at finde struktur i output fra sin forgænger. Dette er hurtigt og fører til et netværk, der kan forstå komplicerede, abstrakte funktioner i dataene.
I en billedgenkendelsesopgave lærer det første lag muligvis at se linjer og hjørner, og det andet lag lærer muligvis at se kombinationerne af de linjer, der udgør funktioner som øjne og næser. Det tredje lag kombinerer muligvis disse funktioner og lærer at genkende et ansigt. Ved at vende dette netværk til back-propagation, kan du kun finpudse på de funktioner, der vedrører de kategorier, du er interesseret i.
På mange måder er dette en enkel løsning til backpropagation: det giver mulighed for backprop “snyde” ved at starte det med en masse informationer om det problem, det prøver at løse. Dette hjælper netværket med at nå bedre minimum, og det sikrer, at de laveste niveauer af netværket trænes og gør noget nyttigt. Det er det.
På den anden side har dybe indlæringsmetoder skabt dramatiske forbedringer i maskinens indlæringshastighed og nøjagtighed og er næsten ensbetydende ansvarlige for den hurtige forbedring af tale til tekstsoftware i de senere år.
Race for Canny Computers
Du kan se, hvorfor alt dette er nyttigt. Jo dybere du kan bygge netværk, jo større og mere abstrakt er de koncepter, som netværket kan lære.
Vil du vide, om en e-mail er spam? For de smarte spammere er det hårdt. Du skal faktisk læse e-mailen og forstå nogle af intentionerne bag den - prøv at se, om der er et forhold mellem afsender og modtager, og udlede modtagerens intentioner. Du skal gøre alt det baseret på farveløse bogstaver, hvoraf de fleste beskriver koncepter og begivenheder, som computeren ikke ved noget om.
Det er meget at bede om nogen.
Hvis du blev bedt om at lære at identificere spam på et sprog, som du ikke allerede talte, og kun indeholdt nogle positive og negative eksempler, ville du gøre det meget dårligt - og du har en menneskelig hjerne. For en computer har problemet været næsten umuligt indtil for nylig. Det er den slags indsigt, som dyb læring kan have, og det bliver utroligt magtfuldt.
Lige nu vinder Microsoft dette løb med et hår. I det lange løb? Det er nogens gæt.
Billedkreditter: “Computer AI“, af Simon Liu, “Bullfrog“, af Brunop, “Kompass top“, af airguy1988, “Freer end Free,” af opensource.com