Hvordan fungerer optiske og kvante computere?

  • Michael Fisher
  • 0
  • 4172
  • 202
Reklame

Computing historie er fuld af Flops.

Apple III havde en ubehagelig vane med at lave mad i sig selv i sin deformerede skal. Atari Jaguar, en 'nyskabende' spilkonsol, der havde nogle falske påstande om dens ydeevne, kunne bare ikke gribe markedet. Intels flagskib Pentium-chip designet til højtydende regnskabsapplikationer havde problemer med decimaltal.

Men den anden slags flopp, der hersker i computerværden, er FLOPS-måling, længe hyldet som en rimelig sammenligning mellem forskellige maskiner, arkitekturer og systemer.

FLOPS er et mål for flytningspunktoperationer pr. Sekund. Kort sagt, det er speedometeret til et computersystem. Og det har vokset eksponentielt i årtier.

Så hvad nu hvis jeg fortalte dig, at om et par år vil du have et system, der sidder på dit skrivebord, eller i dit tv eller i din telefon, der ville tørre gulvet i dagens supercomputere? Utrolig? Jeg er en gal mand? Se på historien, før du dømmer.

Supercomputer til Supermarked

En nylig Intel i7 Haswell Så hvad er forskellen mellem Intels Haswell- og Ivy Bridge-CPU'er? Så hvad er forskellen mellem Intels Haswell- og Ivy Bridge-CPU'er? Leder du efter en ny computer? De, der handler efter en ny Intel-drevet bærbar eller desktop skal kende forskellene mellem den sidste og den nyeste generation af Intel-processorer. processor kan udføre omkring 177 milliarder FLOPS (GFLOPS), som er hurtigere end den hurtigste supercomputer i USA i 1994, Sandia National Labs XP / s140 med 3.680 computerkerner, der arbejder sammen.

En PlayStation 4 kan fungere på omkring 1,8 billioner FLOPS takket være sin avancerede cellemikroarkitektur og ville have trumfet $ 55 millioner ASCI Red supercomputer, der toppede den verdensomspændende supercomputer liga i 1998, næsten 15 år før PS4 blev frigivet.

IBMs Watson AI-system IBM afslører revolutionerende "Brain on a Chip" IBM afslører revolutionerende "Brain on a Chip", der blev annonceret i sidste uge via en artikel i Science, "TrueNorth", er det, der er kendt som en "neuromorfisk chip" - en computerchip designet til at efterligne biologiske neuroner til brug i intelligente computersystemer som Watson. har en (nuværende) peak operation 80 TFLOPS, og det er intet i nærheden af ​​at lade den ind på Top 500 listen over dagens supercomputere, med den kinesiske Tianhe-2 overskriften Top 500 ved de sidste 3 sammenhængende lejligheder, med en peak performance på 54.902 TFLOPS, eller næsten 55 Peta-FLOPS.

Det store spørgsmål er, hvor er den næste computerstørrelse supercomputer Den seneste computerteknologi, du skal se for at tro Den nyeste computerteknologi, du skal se for at tro, Tjek nogle af de nyeste computerteknologier, der er indstillet til at omdanne elektronikens verden og pc'er i de næste par år. kommer fra? Og endnu vigtigere, hvornår får vi det??

En anden mursten i magtvæggen

I den nylige historie har drivkræfterne mellem disse imponerende hastighedsgevinster været inden for materialevidenskab og arkitekturdesign; Fremstillingsprocesser af mindre nanometer skala betyder, at chips kan være tyndere, hurtigere og dumpe mindre energi ud i form af varme, hvilket gør dem billigere at køre.

Med udviklingen af ​​multikernearkitekturer i slutningen af ​​2000'erne bliver mange 'processorer' nu presset på en enkelt chip. Denne teknologi kombineret med den stigende modenhed for distribuerede beregningssystemer, hvor mange 'computere' kan fungere som en enkelt maskine, betyder, at Top 500 altid har været i vækst, bare om at holde trit med Moores berømte lov.

Imidlertid begynder fysiklovene at komme i vejen for al denne vækst, selv Intel er bekymret for det, og mange over hele verden jager efter den næste ting.

... om cirka ti år vil vi se sammenbruddet af Moore's Law. Faktisk ser vi allerede en afmatning af Moore's Law. Computerkraft kan simpelthen ikke opretholde sin hurtige eksponentielle stigning ved hjælp af standard siliciumteknologi. - Dr. Michio Kaku - 2012

Det grundlæggende problem med det nuværende behandlingsdesign er, at transistorerne enten er tændt (1) eller slukket (0). Hver gang en transistorport 'vipper', er den nødt til at udvise en vis mængde energi i det materiale, som porten er lavet til for at få det 'flip' til at blive. Når disse porte bliver mindre og mindre, bliver forholdet mellem energien til at bruge transistoren og energien til at ”vende” transistoren større og større, hvilket skaber store opvarmnings- og pålidelighedsproblemer. De nuværende systemer nærmer sig - og i nogle tilfælde overskridende - atomvareaktorernes rå varmetæthed, og materialer begynder at svigte deres designere. Dette kaldes klassisk 'Power Wall'.

For nylig er nogle begyndt at tænke anderledes på, hvordan man udfører nyttige beregninger. Specielt to virksomheder har fanget vores opmærksomhed med hensyn til avancerede former for kvante- og optisk computing. Canadiske D-Wave Systems og UK baserede Optalysys, som begge har ekstremt forskellige tilgange til meget forskellige problemstillinger.

Tid til at ændre musik

D-Wave fik en masse presse for nylig med deres superkølede ildevarslende sorte kasse med en ekstremt cyberpunk interiør-spike, indeholdende en gåtefuld nøgen-chip med svært at forestille sig kræfter.

I det væsentlige tager D2-systemet en helt anden tilgang til problemløsning ved effektivt at smide årsag-og-virkning-regelbogen ud. Så hvilken slags problemer er denne Google / NASA / Lockheed Martin-støttede behemoth, der sigter mod?

Den vandrende mand

Historisk set, hvis du vil løse et NP-Hard eller Intermediate problem, hvor der er et ekstremt stort antal mulige løsninger, der har en bred vifte af potentiale, ved at bruge 'værdier' ​​fungerer den klassiske tilgang simpelthen ikke. Tag f.eks. Det rejsende sælger-problem; Givet N-byer, find den korteste sti til at besøge alle byer en gang. Det er vigtigt at bemærke, at TSP er en vigtig faktor på mange områder som fremstilling af mikrochip, logistik og endda DNA-sekventering,

Men alle disse problemer koger ned til en tilsyneladende enkel proces; Vælg et punkt at starte fra, generer en rute omkring N 'ting', måle afstanden, og hvis der er en eksisterende rute, der er kortere end det, skal du kaste den forsøgte rute og gå videre til den næste, indtil der ikke er flere ruter til at kontrollere.

Dette lyder let, og for små værdier er det; for 3 byer er der 3 * 2 * 1 = 6 ruter til at kontrollere, for 7 byer er der 7 * 6 * 5 * 4 * 3 * 2 * 1 = 5040, hvilket ikke er så dårligt for en computer at håndtere. Dette er en faktorsekvens og kan udtrykkes som “N!”, så 5040 er 7!.

Når du bare går lidt videre til 10 byer at besøge, skal du dog teste over 3 millioner ruter. Når du kommer til 100, er antallet af ruter, du har brug for at kontrollere, 9 efterfulgt af 157 cifre. Den eneste måde at se på disse slags funktioner er at bruge en logaritmisk graf, hvor y-aksen starter ved 1 (10 ^ 0), 10 (10 ^ 1), 100 (10 ^ 2), 1000 (10 ^ 3) ) og så videre.

Tallene bliver bare for store til at være i stand til med rimelighed at behandle på enhver maskine, der findes i dag eller kan eksistere ved hjælp af klassiske computearkitekturer. Men hvad D-Wave laver er meget anderledes.

Vesuv kommer frem

Vesuvius-chippen i D2 bruger omkring 500 'qubits' eller Quantum Bits til at udføre disse beregninger ved hjælp af en metode kaldet Quantum Annealing. I stedet for at måle hver rute ad gangen, indstilles Vesuvius-kubitsne i en superpositionstilstand (hverken til eller fra, fungerer sammen som et slags potentielt felt) og en række stadig mere komplekse algebraiske beskrivelser af løsningen (dvs. en serie af Hamiltonian beskrivelser af løsningen, ikke en løsning i sig selv) anvendes på superpositionfeltet.

I virkeligheden tester systemet anvendeligheden af ​​enhver potentiel løsning samtidigt, ligesom en kugle "beslutter", hvilken vej man skal gå ned ad en bakke. Når superpositionen lempes ned i en jordtilstand, skal qubitsens grundtilstand beskrive den optimale løsning.

Mange har stillet spørgsmålstegn ved, hvor stor en fordel D-Wave-systemet giver i forhold til en konventionel computer. I en nylig test af platformen mod et typisk Travelling Saleman-problem, der tog 30 minutter for en klassisk computer, tog det kun et halvt sekund på Vesuv.

Dog for at være klart, vil dette aldrig være et system, du spiller Doom på. Nogle kommentatorer forsøger at sammenligne dette meget specialiserede system med en processor til generelle formål. Du ville have det bedre med at sammenligne en ubåd i Ohio-klasse med F35 Lightning; enhver beregning, du vælger for den ene, er så upassende for den anden, at den er ubrugelig.

D-Wave holder hurtigere ind på flere størrelsesordener for sine specifikke problemer sammenlignet med en standardprocessor, og FLOPS-estimater spænder fra en relativt imponerende 420 GFLOPS til en mind-blowing 1.5 Peta-FLOPS (sætter den i Top 10 Supercomputer liste i 2013 på tidspunktet for den sidste offentlige prototype). Hvis noget, fremhæver denne forskel begyndelsen på slutningen af ​​FLOPS som en universel måling, når den anvendes til specifikke problemområder.

Dette område af computing er rettet mod et meget specifikt (og meget interessant) sæt problemer. Bekymringsomt er et af problemerne inden for denne sfære kryptografi Sådan krypteres din Gmail, Outlook og anden webmail Sådan krypteres din Gmail, Outlook og andre Webmail E-mail-konti har nøglerne til dine personlige oplysninger. Her er, hvordan du krypterer din Gmail, Outlook.com og andre e-mail-konti. - specifikt Public Key Cryptography.

Heldigvis synes D-Wave's implementering at være fokuseret på optimeringsalgoritmer, og D-Wave tog nogle designbeslutninger (såsom den hierarkiske peering-struktur på chippen), der indikerer, at du ikke kunne bruge Vesuv til at løse Shors algoritme, som potentielt ville låse internettet så dårligt, det ville gøre Robert Redford stolt.

Laser Matematik

Det andet firma på vores liste er Optalysys. Dette UK-baserede firma tager computing og tænder det på hovedet ved hjælp af analog superposition af lys til at udføre bestemte klasser af beregning ved hjælp af selve lysets natur. Nedenstående video viser noget af baggrunden og grundlæggende elementerne i Optalysys-systemet, præsenteret af prof. Heinz Wolff.

Det er en smule håndbølget, men i bund og grund er det en kasse, der forhåbentlig en dag sidder på dit skrivebord og giver beregningssupport til simuleringer, CAD / CAM og medicinsk billeddannelse (og måske, bare måske, computerspil). Ligesom Vesuv er der ingen måde, at Optalysys-løsningen vil udføre mainstream computing-opgaver, men det er ikke, hvad den er designet til.

En nyttig måde at tænke på denne stil med optisk behandling er at tænke på den som en fysisk grafikbehandlingsenhed (GPU). Moderne GPU Lær din grafikaccelerator at kende i ulidelig detalje med GPU-Z [Windows] Lær din grafikaccelerator at kende i ulidelig detalje med GPU-Z [Windows] GPU, eller grafikbehandlingsenheden, er den del af din computer, der er ansvarlig til håndtering af grafik. Med andre ord, hvis spil er hakke på din computer, eller det ikke kan håndtere indstillinger af meget høj kvalitet, ... 's bruger mange mange streamingprocessorer parallelt og udfører den samme beregning på forskellige data, der kommer ind fra forskellige hukommelsesområder. Denne arkitektur kom som et naturligt resultat af den måde, computergrafikken genereres på, men denne massivt parallelle arkitektur er blevet brugt til alt fra højfrekvenshandel til kunstige neurale netværk.

Optalsys tager lignende principper og oversætter dem til et fysisk medium; datapartitionering bliver strålesplitning, lineær algebra bliver kvanteinterferens, MapReduce-stilfunktioner bliver til optiske filtreringssystemer. Og alle disse funktioner fungerer i konstant, effektivt øjeblikkelig tid.

Den oprindelige prototype enhed bruger et 20Hz 500 × 500 element net til at udføre hurtige Fourier-transformationer (dybest set, “hvilke frekvenser der vises i denne inputstrøm?”) og har leveret et undervejsende ækvivalent på 40 GFLOPS. Udviklere er målrettet mod et 340 GFLOPS-system inden næste år, hvilket i betragtning af det anslåede strømforbrug ville være en imponerende score.

Så hvor er min sorte boks?

Historien om computing En kort historie om computere, der ændrede verden En kort historie om computere, der ændrede verden Du kan bruge år på at dykke ned i computerens historie. Der er masser af opfindelser, mange bøger om dem - og det er, før du begynder at komme ind i fingerspidsen, der uundgåeligt forekommer, når ... viser os, at det, der oprindeligt er forskningslaboratoriets reserve og regeringsagenturer, hurtigt gør vej til forbrugshardware. Desværre har databehandlingshistorien endnu ikke været nødt til at beskæftige sig med begrænsningerne i fysiklovene.

Personligt tror jeg ikke, D-Wave og Optalysys vil være de nøjagtige teknologier, vi har på vores skriveborde om 5-10 år. Overvej, at den første genkendelige “Smartur” blev afsløret i 2000 og mislykkedes elendigt; men essensen af ​​teknologien fortsætter i dag. Ligeledes vil disse udforskninger i Quantum og Optical computing-acceleratorer sandsynligvis ende som fodnoter i 'den næste store ting'.

Materialevidenskab er tættere på biologiske computere ved hjælp af DNA-lignende strukturer til at udføre matematik. Nanoteknologi og 'Programmerbar materie' nærmer sig punktet snarere end at behandle 'data', materialet i sig selv vil både indeholde, repræsentere og behandle information.

Alt i alt er det en modig ny verden for en beregningsvidenskabsmand. Hvor tror du, at det hele går hen? Lad os chatte om det i kommentarerne!

Fotokreditter: KL Intel Pentium A80501 af Konstantin Lanzet, Asci red - tflop4m af US Government - Sandia National Laboratories, DWave D2 af The Vancouver Sun, DWave 128chip af D-Wave Systems, Inc., Rejsende sælger Problem af Randall Munroe (XKCD)




Endnu ingen kommentarer

Om moderne teknologi, enkel og overkommelig.
Din guide i en verden af moderne teknologi. Lær hvordan du bruger de teknologier og gadgets, der omgiver os hver dag, og lær, hvordan du finder interessante ting på Internettet.