
Brian Curtis
0
2418
550
I løbet af de sidste par måneder har du måske læst dækningen omkring en artikel, medforfatter af Stephen Hawking, og diskuteret risiciene forbundet med kunstig intelligens. Artiklen antydede, at AI kan udgøre en alvorlig risiko for den menneskelige race. Hawking er ikke alene der - Elon Musk og Peter Thiel er begge intellektuelle offentlige personer, der har udtrykt lignende bekymringer (Thiel har investeret mere end 1,3 millioner dollars i at undersøge problemet og mulige løsninger).
Dækningen af Hawkings artikel og Musks kommentarer har været, for ikke at sætte et for fint punkt på det, lidt jovialt. Tonen har været meget 'se på denne underlige ting, alle disse nørder er bekymrede for.' Idéen om, at nogle af de smarteste mennesker på Jorden advarer dig om, at noget kunne være meget farligt, er det måske værd at lytte.
Dette er forståeligt - kunstig intelligens, der overtager verden, lyder bestemt meget underligt og upålideligt, måske på grund af den enorme opmærksomhed, der allerede er givet til denne idé fra science fiction-forfattere. Så hvad har alle disse nominelt fornuftige, rationelle mennesker så talt?
Hvad er intelligens?
For at tale om faren ved kunstig intelligens, kan det være nyttigt at forstå, hvad intelligens er. For at forstå problemet bedre, lad os tage et kig på en legetøj AI-arkitektur, der bruges af forskere, der studerer ræsonnementsteorien. Dette legetøj AI kaldes AIXI og har et antal nyttige egenskaber. Det er mål, der kan være vilkårlige, det skalerer godt med computerkraft, og dets interne design er meget ren og ligetil.
Desuden kan du implementere enkle, praktiske versioner af arkitekturen, der kan gøre ting som at spille Pacman, hvis du vil. AIXI er produktet af en AI-forsker ved navn Marcus Hutter, uden tvivl den fremste ekspert på algoritmisk intelligens. Det er ham, der taler i videoen ovenfor.
AIXI er overraskende enkel: den har tre kernekomponenter: elev, planner, og hjælpefunktion.
- Det elev tager strenge af bits, der svarer til input om omverdenen, og søger gennem computerprogrammer, indtil den finder dem, der producerer dens observationer som output. Disse programmer tillader det sammen at gætte, hvordan fremtiden vil se ud, blot ved at køre hvert program fremad og vægte sandsynligheden for resultatet efter programmets længde (en implementering af Occam's Razor).
- Det planner søger gennem mulige handlinger, som agenten kunne udføre, og bruger lærermodulet til at forudsige, hvad der ville ske, hvis det tog hver af dem. Derefter vurderes de efter, hvor gode eller dårlige de forudsagte resultater er, og vælger handlingsforløbet, der maksimerer godheden i det forventede resultat ganget med den forventede sandsynlighed for at nå det.
- Det sidste modul, hjælpefunktion, er et simpelt program, der tager en beskrivelse af en fremtidig verdensstat og beregner en utility-score til det. Denne brugsresultat er, hvor godt eller dårligt dette resultat er, og bruges af planlæggeren til at evaluere fremtidens verdensstat. Hjælpefunktionen kan være vilkårlig.
- Samlet danner disse tre komponenter en optimizer, som optimerer sig for et bestemt mål, uanset hvilken verden det befinder sig i.
Denne enkle model repræsenterer en grundlæggende definition af en intelligent agent. Agenten studerer sit miljø, bygger modeller af det og bruger derefter disse modeller til at finde det handlingsforløb, der maksimerer oddsen for, at den får det, den ønsker. AIXI ligner struktur i forhold til en AI, der spiller skak eller andre spil med kendte regler - bortset fra at det er i stand til at udlede spillereglerne ved at spille det, startende fra nul viden.
AIXI, der får tid nok til at beregne, kan lære at optimere ethvert system til ethvert mål, uanset kompleks. Det er en generelt intelligent algoritme. Bemærk, at dette ikke er det samme som at have menneskelignende intelligens (biologisk-inspireret AI er et helt andet emne Giovanni Idili fra OpenWorm: Hjerner, orme og kunstig intelligens Giovanni Idili fra OpenWorm: Hjerner, orme og kunstig intelligens Simulering af menneskelig hjerne er en veje væk, men et open source-projekt tager vigtige første skridt ved at simulere neurologi og fysiologi af et af de mest videnskabelige dyr, der er kendt for videnskaben.) Med andre ord, AIXI er muligvis i stand til at overliste ethvert menneske ved enhver intellektuel opgave (givet nok computerkraft), men det er måske ikke bevidst om dens sejr Tænkemaskiner: Hvad neurovidenskab og kunstig intelligens kan lære os om bevidsthed Tænkemaskiner: Hvad Neurovidenskab og kunstig intelligens kan lære os om bevidsthed Kan opbygge kunstigt intelligente maskiner og software lære os om bevidsthedens funktion og selve det menneskelige sinds natur? .
Som en praktisk AI har AIXI en masse problemer. For det første er det ingen måde at finde de programmer, der producerer det output, den er interesseret i. Det er en brute-force algoritme, hvilket betyder, at det ikke er praktisk, hvis du ikke tilfældigvis har en vilkårligt stærk computer liggende. Enhver faktisk implementering af AIXI er nødvendigvis en tilnærmelse, og (i dag) generelt en temmelig rå. Alligevel giver AIXI os et teoretisk glimt af, hvordan en magtfuld kunstig intelligens kan se ud, og hvordan den kan begrunde.
Værdiernes rum
Hvis du har lavet nogen programmering af computeren Grundlæggende om computerprogrammering 101 - variabler og datatyper Grundlæggende om computerprogrammering 101 - variabler og datatyper Efter at have introduceret og talt lidt om Objektorienteret programmering før, og hvor dens navnebror kommer fra, troede jeg, det var tid vi gennemgår de absolutte grundlæggende programmering på en ikke-sprogspecifik måde. Dette…, ved du, at computere er modbydeligt, pedantisk og mekanisk bogstavelige. Maskinen ved ikke eller bekymrer sig, hvad du vil have, den skal gøre: den gør kun, hvad den har fået at vide. Dette er en vigtig opfattelse, når man taler om maskin intelligens.
Med dette i tankerne kan du forestille dig, at du har opfundet en stærk kunstig intelligens - du er kommet med smarte algoritmer til generering af hypoteser, der matcher dine data, og til at generere gode kandidatplaner. Din AI kan løse generelle problemer og kan gøre det effektivt på moderne computerhardware.
Nu er det tid til at vælge en hjælpefunktion, der bestemmer, hvad AI-værdierne. Hvad skal du bede om at værdsætte? Husk, at maskinen vil være modbydelig, pedantisk bogstavelig, uanset hvilken funktion du beder om at maksimere, og vil aldrig stoppe - der er intet spøgelse i maskinen, der nogensinde vil "vågne op" og beslutte at ændre dens nyttefunktion, uanset hvor mange effektivitetsforbedringer, den foretager til sin egen ræsonnement.
Eliezer Yudkowsky udtrykte det på denne måde:
Som ved al computerprogrammering er den grundlæggende udfordring og væsentlige vanskeligheder ved AGI, at hvis vi skriver den forkerte kode, vil AI ikke automatisk kigge over vores kode, markere fejlene, finde ud af, hvad vi virkelig mente at sige, og gøre det i stedet. Ikke-programmerere forestiller sig undertiden en AGI eller computerprogrammer generelt, som at de er analoge med en tjener, der uden tvivl følger ordrer. Men det er ikke, at AI er absolut lydig til dens kode; snarere AI simpelthen er koden.
Hvis du prøver at betjene en fabrik, og du fortæller maskinen, at den værdsætter fremstilling af papirclips og derefter giver den kontrol over en masse fabriksrobotter, vil du måske vende tilbage næste dag for at finde ud af, at den løber tør for enhver anden form for råstof, dræbte alle dine medarbejdere og lavede papirklip ud af deres rester. Hvis du i et forsøg på at rette din forkert omprogrammerer maskinen til simpelthen at gøre alle glade, kan du vende tilbage næste dag for at finde den lægge ledninger i folks hjerner.
Pointen her er, at mennesker har en masse komplicerede værdier, som vi antager, deles implicit med andre sind. Vi værdsætter penge, men vi værdsætter menneskeliv mere. Vi ønsker at være glade, men vi vil ikke nødvendigvis sætte ledninger i vores hjerner for at gøre det. Vi føler ikke behov for at afklare disse ting, når vi giver instruktioner til andre mennesker. Du kan dog ikke tage disse antagelser, når du designer en maskinfunktion. De bedste løsninger under sjæleløs matematik i en simpel nyttefunktion er ofte løsninger, som mennesker ville niks for at være moralsk forfærdelige.
At tillade en intelligent maskine at maksimere en naiv hjælpefunktion vil næsten altid være katastrofalt. Som Oxford-filosofen Nick Bostom udtrykker det,
Vi kan ikke blidt antage, at en superintelligens nødvendigvis vil dele nogen af de endelige værdier, der er stereotype forbundet med visdom og intellektuel udvikling i mennesker - videnskabelig nysgerrighed, velvillig omtanke for andre, åndelig oplysning og kontemplation, afsagt af materiel erhvervelsesevne, en smag for raffineret kultur eller for de enkle glæder i livet, ydmyghed og uselviskhed osv.
For at gøre tingene værre er det meget, meget vanskeligt at specificere den komplette og detaljerede liste over alt, hvad folk værdsætter. Der er mange facetter til spørgsmålet, og at glemme selv en enkelt er potentielt katastrofalt. Selv blandt dem, vi er opmærksomme på, er der subtiliteter og kompleksiteter, der gør det vanskeligt at nedskrive dem som rene ligningssystemer, som vi kan give en maskine som en hjælpefunktion.
Nogle mennesker konkluderer, når de læser dette, at opbygning af AI'er med hjælpefunktioner er en frygtelig idé, og vi skulle bare designe dem anderledes. Her er der også dårlige nyheder - du kan formelt bevise, at enhver agent, der ikke har noget svarende til en hjælpefunktion, ikke kan have sammenhængende præferencer for fremtiden.
Rekursiv selvforbedring
En løsning på ovennævnte dilemma er at ikke give AI-agenter muligheden for at skade mennesker: give dem kun de ressourcer, de har brug for til at løse problemet på den måde, du agter at blive løst, overvåge dem nøje og holde dem væk fra mulighederne for at gøre stor skade. Desværre er vores evne til at kontrollere intelligente maskiner meget mistænkt.
Selvom de ikke er meget smartere end vi er, findes muligheden for, at maskinen kan “bootstrap” - indsamle bedre hardware eller foretage forbedringer af sin egen kode, der gør den endnu smartere. Dette kunne gøre det muligt for en maskine at springe fra menneskelig intelligens ved mange størrelsesordener og overliste mennesker i samme forstand som mennesker overgår katte. Dette scenarie blev først foreslået af en mand ved navn I. J. Good, der arbejdede på Enigma-kryptoanalyseprojektet med Alan Turing under 2. verdenskrig. Han kaldte det en “Intelligenseksplosion,” og beskrev sagen sådan:
Lad en ultra-intelligent maskine defineres som en maskine, der langt kan overgå alle menneskers intellektuelle aktiviteter, uanset hvor kloge de er. Da design af maskiner er en af disse intellektuelle aktiviteter, kunne en ultraintelligent maskine designe endnu bedre maskiner; der ville da uden tvivl være en “intelligenseksplosion,” og menneskets intelligens ville blive efterladt langt bagefter. Den første ultra-intelligente maskine er således den sidste opfindelse, som mennesket nogensinde har brug for, forudsat at maskinen er føjelig nok.
Det er ikke garanteret, at en intelligenseksplosion er mulig i vores univers, men det ser ud til at være sandsynligt. Efterhånden som computeren får hurtigere og grundlæggende indsigt om opbygning af intelligens. Dette betyder, at ressourcebehovet for at gøre det sidste spring til en generel, boostrapping-intelligens falder lavere og lavere. På et tidspunkt finder vi os selv i en verden, hvor millioner af mennesker kan køre til en Best Buy og hente den hardware og tekniske litteratur, de har brug for, for at opbygge en selvforbedrende kunstig intelligens, som vi allerede har etableret, kan være meget farligt. Forestil dig en verden, hvor du kunne lave atombomber ud af pinde og klipper. Det er den slags fremtid, vi diskuterer.
Og hvis en maskine gør det spring, kunne det meget hurtigt overgå den menneskelige art med hensyn til intellektuel produktivitet og løse problemer, som en milliard mennesker ikke kan løse, på samme måde som mennesker kan løse problemer, som en milliard katte kan ” t.
Det kunne udvikle kraftfulde robotter (eller bio- eller nanoteknologi) og relativt hurtigt få evnen til at omforme verden, som den vil, og der ville være meget lidt, vi kunne gøre ved det. En sådan intelligens kunne stribe Jorden og resten af solsystemet til reservedele uden meget besvær på vej til at gøre, hvad vi fortalte det til. Det ser ud til, at en sådan udvikling vil være katastrofal for menneskeheden. En kunstig intelligens behøver ikke at være ondsindet for at ødelægge verden, kun katastrofalt ligeglad.
Som man siger, “Maskinen elsker eller hader dig ikke, men du er lavet af atomer, den kan bruge til andre ting.”
Risikovurdering og afbødning
Så hvis vi accepterer, at design af en kraftig kunstig intelligens, der maksimerer en simpel nyttefunktion, er dårlig, hvor mange problemer er vi da egentlig i? Hvor lang tid har vi haft, før det bliver muligt at bygge sådanne slags maskiner? Det er naturligvis vanskeligt at fortælle.
Udviklere af kunstig intelligens gør fremskridt. 7 fantastiske websteder for at se det nyeste inden for programmering af kunstig intelligens 7 fantastiske websteder til at se det nyeste inden for kunstig intelligensprogrammering Kunstig intelligens er endnu ikke HAL fra 2001: The Space Odyssey… men vi kommer forfærdeligt tæt på. Sikker nok, en dag kan det være ligesom sci-fi-potboilere, der bliver udslettet af Hollywood… De maskiner, vi bygger, og de problemer, de kan løse, har vokset støt inden for rækkevidde. I 1997 kunne Deep Blue spille skak på et niveau, der var større end en menneskelig stormester. I 2011 kunne IBM's Watson læse og syntetisere nok information dybt og hurtigt nok til at slå de bedste menneskelige spillere på et åbent spørgsmål og svarspil fyldt med ordspill og ordspil - det er meget fremskridt i fjorten år.
Lige nu investerer Google stærkt i at undersøge dyb læring, en teknik, der tillader konstruktion af kraftfulde neurale netværk ved at opbygge kæder af enklere neurale netværk. Denne investering giver det mulighed for at gøre alvorlige fremskridt inden for tale- og billedgenkendelse. Deres seneste erhvervelse i området er en Deep Learning-start kaldet DeepMind, som de betalte for ca. $ 400 millioner. Som en del af aftalevilkårene gik Google med til at oprette et etisk bord for at sikre, at deres AI-teknologi udvikles sikkert.
Samtidig udvikler IBM Watson 2.0 og 3.0, systemer, der er i stand til at behandle billeder og video og argumentere for at forsvare konklusioner. De gav en enkel, tidlig demo af Watsons evne til at syntetisere argumenter for og imod et emne i video-demoen nedenfor. Resultaterne er ufuldkommen, men et imponerende skridt uanset.
Ingen af disse teknologier er i sig selv farlige lige nu: kunstig intelligens som felt kæmper stadig for at matche evner, der er mestret af små børn. Computerprogrammering og AI-design er en meget vanskelig kognitiv dygtighed på højt niveau og vil sandsynligvis være den sidste menneskelige opgave, som maskiner bliver dygtige til. Inden vi kommer til dette punkt, har vi også allestedsnærværende maskiner, der kan køre. Sådan kommer vi til en verden fyldt med førerløse biler. Sådan kommer vi til en verden, der er fyldt med førerløse biler. Kørsel er en kedelig, farlig, og krævende opgave. Kan det en dag automatiseres af Googles førerløse bilteknologi? , praktiserer medicin og lovgivning og sandsynligvis også andre ting med dybe økonomiske konsekvenser.
Den tid det tager os at komme til bøjningspunktet for selvforbedring afhænger bare af, hvor hurtigt vi har gode ideer. Prognoser for teknologiske fremskridt af den slags er notorisk svære. Det ser ikke urimeligt ud, at vi måske er i stand til at opbygge stærk AI om tyve år, men det synes heller ikke urimeligt, at det kan tage otte år. Uanset hvad vil det ske i sidste ende, og der er grund til at tro, at når det sker, vil det være ekstremt farligt.
Så hvis vi accepterer, at dette vil være et problem, hvad kan vi gøre ved det? Svaret er at sikre, at de første intelligente maskiner er sikre, så de kan starte op på et betydeligt niveau af intelligens og derefter beskytte os mod usikre maskiner lavet senere. Denne 'sikkerhed' defineres ved at dele menneskelige værdier og være villig til at beskytte og hjælpe menneskeheden.
Fordi vi faktisk ikke kan sætte os ned og programmere menneskelige værdier i maskinen, vil det sandsynligvis være nødvendigt at designe en hjælpefunktion, der kræver, at maskinen observerer mennesker, deducerer vores værdier og derefter prøver at maksimere dem. For at gøre denne udviklingsproces sikker kan det også være nyttigt at udvikle kunstige intelligenser, der er specifikt designet ikke at have præferencer for deres hjælpefunktioner, så vi kan rette dem eller slukke dem uden modstand, hvis de begynder at komme på afveje under udvikling.
Mange af de problemer, vi har brug for at løse for at opbygge en sikker maskineintelligens er vanskelige matematisk, men der er grund til at tro, at de kan løses. En række forskellige organisationer arbejder med spørgsmålet, herunder Future of Humanity Institute i Oxford og Machine Intelligence Research Institute (som Peter Thiel finansierer).
MIRI er specifikt interesseret i at udvikle den matematik, der er nødvendig for at opbygge Friendly AI. Hvis det viser sig, at det er muligt at starte bootstrapping af kunstig intelligens, kan det at udvikle denne form for 'Friendly AI' teknologi først, hvis det er vellykket, ende med at blive den vigtigste ting, mennesker nogensinde har gjort.
Synes du, at kunstig intelligens er farlig? Er du bekymret for, hvad AI's fremtid kan medføre? Del dine tanker i kommentarfeltet nedenfor!
Billedkreditter: Lwp Kommunikáció Via Flickr, “Neural Network“, af fdecomite,” img_7801“, af Steve Rainwater, “E-Volve”, af Keoni Cabral, “new_20x“, af Robert Cudmore, “Papirclips“, af Clifford Wallace