Home Nieuws Wat maakt Quantum Machine Learning ‘Quantum’?

Wat maakt Quantum Machine Learning ‘Quantum’?

5
0
Wat maakt Quantum Machine Learning ‘Quantum’?

Ik telde 7 jaar geleden, vlak na mijn masteropleiding. Destijds was het veld gevuld met opwinding, maar ook met scepsis. Tegenwoordig onderscheidt quantum computing zich als een nieuwe technologie naast HPC’s en AI.

De focus verschoof van puur hardware-gerelateerd onderzoek en discussie naar toepassingen, software en algoritmen. Quantum is echt een hulpmiddel dat in verschillende disciplines kan worden gebruikt in plaats van in een geïsoleerd veld. Een van de veelbelovende, maar nog steeds niet volledig begrepen toepassingen van kwantumcomputers is kwantummachine learning.

Quantum Machine Learning (QML) is de laatste jaren een veelgebruikte term geworden. Een van de eerste en belangrijkste verschijningen van QML vond plaats in 2013, toen Google en NASA het Quantum Artificial Intelligence Lab oprichtten, dat de taak kreeg te onderzoeken hoe kwantumcomputers kunnen worden gebruikt in machine learning-toepassingen. Sindsdien verscheen de term QML in onderzoekspapers, pitches voor startups en toespraken op conferenties, vaak met totaal verschillende betekenissen.

In sommige gevallen verwijst het naar het gebruik van kwantumcomputers om machinaal leren te versnellen. In andere worden klassieke algoritmen beschreven die zijn geïnspireerd door de kwantumfysica. En soms betekent dat eenvoudigweg het uitvoeren van een vertrouwde ML-workflow op onbekende hardware.

Dus zelfs ik, iemand die werkt aan en onderzoek doet naar quantum computing, was in eerste instantie erg in de war… Ik durf te wedden dat de eerste vraag van veel mensen als ze ‘Quantum Machine Learning’ horen, is wat quantum machine learning precies inhoudt. quantum?

Het beantwoorden van deze vraag is de reden waarom ik besloot dit artikel te schrijven! Het korte antwoord is niet snelheid, noch zijn het neurale netwerken, noch zijn het vage verwijzingen naar ‘kwantumvoordeel’. In de kern wordt quantum machine learning gedefinieerd door de manier waarop informatie wordt weergegeven, getransformeerd en uitgelezen. In QML wordt dit gedaan door gebruik te maken van de regels van de kwantummechanica in plaats van klassieke berekeningen.

Dit artikel heeft tot doel dit onderscheid te verduidelijken, de inhoud van de hype te scheiden en een zuivere conceptuele basis te bieden voor de rest van deze serie. Ik ben van plan om op korte termijn te schrijven over het verkennen van de leringen van QML, evenals enkele onderzoeksresultaten en toepassingen ervan.

Machine learning vóór “Quantum”

Laten we eerst een stapje terug doen, voordat we helemaal met kwantum beginnen. Ontdaan van zijn moderne functies, gaat machine learning over het leren van een mapping van input naar output met behulp van data. Of het model nu een lineaire regressor, een kernelmethode of een diep neuraal netwerk is, de structuur is min of meer hetzelfde:

  1. Gegevens worden numeriek weergegeven (vectoren, matrices, tensoren).
  2. Een geparametriseerd model transformeert deze gegevens.
  3. Parameters worden aangepast door een kostenfunctie te optimaliseren.
  4. Het model wordt statistisch geëvalueerd op nieuwe monsters.

Neurale netwerken, GPU’s en enorme datasets zijn implementatiekeuzes en geen bepalende kenmerken. Deze abstractie is belangrijk omdat we hierdoor een precieze vraag kunnen stellen:

Wat verandert wanneer data en het model leven in een kwantumruimte?

De kwantummechanica doet zijn intrede

Kwantummachine learning wordt kwantum wanneer kwantuminformatie het computationele substraat is. Dit uit zich op drie manieren.

1. Gegevens worden weergegeven als kwantumtoestanden.

In klassieke machine learning-modellen worden gegevens weergegeven als bits of drijvende-kommagetallen. Quantum machine learning maakt daarentegen gebruik van kwantumtoestanden, dit zijn complexe vectoren die de regels van de kwantummechanica volgen. Deze toestanden worden vaak beschreven door dichtheidsmatrices en hun transformaties worden weergegeven door entiteitsmatrices.

Als gevolg hiervan coderen we informatie in amplitudes met complexe waarden in plaats van waarschijnlijkheden, en kunnen toestanden in superpositie bestaan.

Dit wel niet betekenen dat alle klassieke gegevens plotseling exponentieel gecomprimeerd of gemakkelijk toegankelijk worden. Het laden van gegevens in kwantumtoestanden is vaak duur, en het extraheren van informatie daaruit wordt fundamenteel beperkt door metingen.

Het belangrijke punt is dus dat het model op kwantumtoestanden werkt, en niet op klassieke getallen.

2. Modellen zijn kwantumontwikkelingen

Klassieke ML-modellen passen functies toe op gegevens. Quantum ML-modellen passen kwantumbewerkingen (doorgaans unitaire transformaties) toe op kwantumkanalen. In de praktijk worden veel QML-modellen opgebouwd uit geparametriseerde kwantumcircuits. Deze circuits zijn reeksen kwantumpoorten, dit zijn basisbewerkingen die kwantumtoestanden veranderen. De parameters van deze kwantumpoorten worden tijdens de training ingesteld, vergelijkbaar met het aanpassen van gewichten in een neuraal netwerk bij klassiek machinaal leren.

Wat er feitelijk in deze modellen gebeurt, is dat we beginnen met de toestand van het systeem, weergegeven in een matrix (we zullen het een Hamiltoniaan noemen, om precies te zijn), en dan zullen de poorten die we op het systeem toepassen ons vertellen hoe dat systeem over een bepaalde periode evolueert (veranderingen). Die ontwikkeling dicteert het gedrag van het model.

Als gevolg hiervan onderzoeken kwantummodellen een hypotheseruimte die structureel verschilt van die van klassieke modellen, zelfs als de trainingslus op het eerste gezicht vergelijkbaar lijkt.

3. Meten is onderdeel van het leerproces

In klassieke ML is het uitlezen van de uitvoer van een model triviaal en heeft dit op geen enkele manier invloed op de toestand of het gedrag van het model (tenzij we dit opzettelijk zo maken). In quantum ML is de meting echter probabilistisch en destructief voor de staat. Dit heeft grote gevolgen voor het systeem. De uitgangen worden bepaald door herhaalde circuituitvoeringen, ‘shots’ genoemd. Hier betekent ‘schot’ dat hetzelfde kwantumcircuit meerdere keren wordt uitgevoerd om een ​​resultaat te schatten, aangezien kwantummetingen probabilistisch zijn.

De gradiënten (wat het bijwerken van parameters tijdens de training regelt) worden statistisch geschat op basis van deze metingen in plaats van precies te worden berekend zoals bij klassiek machinaal leren. Als gevolg hiervan worden de trainingskosten vaak gedomineerd door het bemonsteren van ruis uit deze herhaalde metingen, in plaats van alleen door berekeningen.

Met andere woorden: er zit een ingebouwde onzekerheid in het model zelf. Bij elke serieuze discussie over QML moet rekening worden gehouden met het feit dat leren plaatsvindt door meting, niet daarna.

Wat doet Niet Maak QML Quantum

Vooral kwantumcomputers en QML zorgen voor hypes en misverstanden. Veel dingen die tegenwoordig ‘kwantummachine learning’ worden genoemd, zijn alleen kwantum in naam, bijvoorbeeld:

  • Klassieke ML-algoritmen draaien op kwantumhardware zonder betekenisvol gebruik te maken van kwantumtoestanden.
  • “Quantum-geïnspireerde” methoden die volledig klassiek zijn.
  • Hybride pijplijnen waarbij de kwantumcomponent kan worden verwijderd zonder het gedrag of de prestaties van het model te veranderen.

Als je ooit iemand tegenkomt die over QML praat en je weet niet zeker waar het kwantummodel is dat hij/zij bespreekt, is het een goede vuistregel om te vragen:

“Kan ik het kwantumdeel vervangen door een klassiek deel zonder de wiskundige structuur van het model te veranderen?”

Zo ja of misschien, dan is de aanpak waarschijnlijk niet fundamenteel kwantitatief. Dit werk kan nog steeds waardevol zijn, maar valt buiten de kern van quantum machine learning.

Waar is QML vandaag?

Houd er bij het bespreken van kwantumcomputing rekening mee dat de huidige hardware luidruchtig, klein en beperkt in middelen is. Vanwege dit:

  • Er is momenteel geen algemeen, bewezen kwantumvoordeel voor machine learning-taken.
  • Veel QML-modellen lijken meer op kernelmethoden dan op diepe netwerken.
  • Gegevensbelasting en ruis domineren vaak de prestaties.

Dit is geen veldfout; dit is waar quantum computing momenteel staat. Het meeste QML-onderzoek is nu verkennend: het in kaart brengen van modelklassen, het begrijpen van de kwantumleertheorie en het identificeren van waar de kwantumstructuur van belang kan zijn.

Waarom Quantum Machine Learning nog steeds de moeite waard is om te bestuderen

Als versnellingen op de korte termijn onwaarschijnlijk zijn, waarom zou u dan überhaupt QML nastreven?

QML dwingt ons om fundamentele vragen over machine learning en quantum computing te heroverwegen. We moeten een antwoord geven op wat het betekent om van kwantumdata te leren, hoe ruis de optimalisatie beïnvloedt, en welke modelklassen er wel bestaan ​​in kwantumsystemen, maar niet in klassieke systemen.

Kwantummachine learning gaat niet zozeer over het beter presteren dan klassieke ML van vandaag, maar meer over het vergroten van de ruimte van wat ‘leren’ kan betekenen in een kwantumwereld.

Dit is van belang omdat wetenschappelijke en technologische vooruitgang begint met nieuwe benaderingen. Hoewel de hardware nog niet klaar is, bereidt de verkenning van QML ons voor op betere hardware in de toekomst.

Laatste gedachten en wat er daarna komt

De vooruitgang op het gebied van quantum computing gaat steeds sneller. Hardwarebedrijven racen om een ​​fouttolerante kwantumcomputer te bouwen. Een kwantumcomputer die de volledige kracht van de kwantummechanica benut. Software- en applicatiebedrijven onderzoeken de problemen die kwantumcomputers op zinvolle wijze kunnen oplossen.

Dat gezegd hebbende, zijn de hedendaagse kwantumcomputers niet in staat om een ​​bijna levensgrote applicatie uit te voeren, laat staan ​​een complex machine learning-model. Toch is de belofte van quantum computing-efficiëntie in machine learning behoorlijk interessant en de moeite waard om nu te onderzoeken, parallel met de vooruitgang op hardwaregebied.

In dit artikel concentreerde ik me op de definities en grenzen van quantum machine learning om de weg vrij te maken voor toekomstige artikelen waarin het volgende wordt onderzocht:

  • Hoe klassieke data zijn ingebed in kwantumtoestanden.
  • Variationele kwantummodellen en hun beperkingen.
  • Kwantumkernels en functieruimte.
  • Optimalisatie-uitdagingen in luidruchtige kwantumsystemen.
  • Waar waarschijnlijk kwantumvoordelen zullen ontstaan.

Voordat we ons afvragen of quantum machine learning nuttig is, moeten we duidelijk weten wat het eigenlijk is. Hoe meer we afstand nemen van de hype, hoe dichter we bij vooruitgang kunnen komen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in