Bachelorarbeit, 2024
51 Seiten, Note: 1,3
1. Einleitung
2. Theoretischer Hintergrund
2.1. Einführung in Quantencomputing
2.1.1. Bits und Qubits
2.1.2. Superposition, Verschränkung und Messen von Quantenzuständen
2.1.3. Quantengatter
2.2. Noisy Intermediate-Scale Quantum Computing
2.2.1. Überblick über NISQ
2.2.2. Eigenschaften und Herausforderungen
2.3. Variational Quantum Algorithms
2.3.1. Aufbau und Funktionsweise
2.3.2. Anwendungsgebiete und Forschungsschwerpunkte
2.4. Quantum Neural Networks
2.4.1. Motivation für Quantum Neural Networks
2.4.2. Die Rolle von Parameterized Quantum Circuits
2.4.3. Funktionsweise
3. Optimierungsalgorithmen und Implementierung
3.1. Optimierungsalgorithmen
3.1.1. Stochastic Gradient Descent
3.1.2. Bayesian Optimization
3.1.3. Stochastic Gradient Line Bayesian Optimization
3.1.4. Adaptive Moment Estimation
3.2. Implementierung
3.2.1. sQUlearn
3.2.2. Implementierung der Stochastic Gradient Line Bayesian Optimization
3.2.3. Training von Quantum Neural Networks mit sQUlearn
4. Benchmark
4.1. Regression für eindimensionale Funktionen
4.1.1. Verwendetes Encoding Circuit
4.1.2. Vorhergesagte Funktionen
4.1.3. Ergebnisse
4.2. Regression für Modell mit schrittweiser Erhöhung der Parameter
4.2.1. Verwendetes Encoding Circuit
4.2.2. Regressionsfunktion
4.2.3. Ergebnisse
4.3. Regressionen mit Rauschen
4.3.1. Ergebnisse
5. Zusammenfassung und Ausblick
A. SGLBO Implementierung
B. QNN Beispiel
Die vorliegende Abschlussarbeit evaluiert die Leistungsfähigkeit des Optimierungsalgorithmus Stochastic Gradient Line Bayesian Optimization (SGLBO) im Vergleich zum etablierten Adam-Optimierer für die Parameteroptimierung in Quantum Neural Networks (QNNs).
Stochastic Gradient Line Bayesian Optimization
SGLBO ist ein Optimierungsalgorithmus, der speziell für die Parameteroptimierung von PQCs in der VQA-Umgebung entwickelt wurde. Dabei kombiniert er die zwei zuvor erwähnten Optimierungsverfahren SGD und BO.
Da die Optimierung der Parameter in einem VQA sehr rechenintensiv ist, wurde SGLBO entwickelt, um diesen Prozess effizienter zu gestalten. Dabei legen die Entwickler von SGLBO großen Wert darauf, das in Quantencomputern auftretende Rauschen besser als bisherige SGD-Optimierungsalgorithmen zu handhaben.
Die Erwartungswerte für das QNN müssen mit einer begrenzten Anzahl von Messschüssen ermittelt werden. Messungen werden sowohl für die Auswertung der Vorhersage des QNN als auch für die Gradientenberechnung benötigt. Die Durchführung von Messschüssen zur Extraktion eines Erwartungswertes ist sehr kostenintensiv, weshalb es eines der Ziele von SGLBO ist, die Gesamtzahl der notwendigen Messschüsse und damit die Gesamtkosten der Optimierung zu reduzieren. Da die Reduzierung der Messschüsse jedoch zu ungenaueren Erwartungswerten führt, ist es umso wichtiger, dass diese im Optimierungsalgorithmus effizient zur Minimierung der Kostenfunktion genutzt werden.
1. Einleitung: Diese Arbeit analysiert und vergleicht Optimierungsalgorithmen für Parameterized Quantum Circuits (PQCs) innerhalb von Quantum Neural Networks.
2. Theoretischer Hintergrund: Es werden die Grundlagen des Quantencomputings, NISQ-Systeme, Variational Quantum Algorithms und Quantum Neural Networks erläutert.
3. Optimierungsalgorithmen und Implementierung: Detaillierte Vorstellung von SGD, BO, Adam sowie der speziellen SGLBO-Methodik und deren Einbindung in die sQUlearn-Bibliothek.
4. Benchmark: Experimentelle Untersuchung der Algorithmen anhand von Regressionen bei variierender Parameteranzahl sowie unter Einfluss von Rauschen.
5. Zusammenfassung und Ausblick: Die Ergebnisse bestätigen die Robustheit von Adam in rauschfreien Szenarien, während SGLBO eine überlegene Leistung in verrauschten Umgebungen erzielt.
Quantencomputing, Quantum Neural Networks, Parameterized Quantum Circuits, Stochastic Gradient Line Bayesian Optimization, Optimierung, SGLBO, Adam, NISQ, Variational Quantum Algorithms, Quantenrauschen, sQUlearn, Machine Learning, Regression, Bayes’sche Optimierung
Das Hauptziel ist die Evaluierung der Leistungsfähigkeit und Effizienz des SGLBO-Optimierers im Vergleich zum etablierten Adam-Algorithmus bei der Optimierung von QNN-Parametern.
Die Arbeit untersucht den Stochastic Gradient Descent (SGD), die Bayesian Optimization (BO), den darauf basierenden, kombinierten SGLBO-Ansatz und den Adaptive Moment Estimation (Adam) Optimierer.
Es wird ein experimenteller Benchmark-Ansatz gewählt, bei dem QNNs auf simulierten Quantenhardware-Umgebungen trainiert werden, um Konvergenzverhalten und Rauschrobustheit zu messen.
Die Arbeit deckt theoretische Grundlagen des Quantencomputings, die Architektur von Variational Quantum Algorithms und die praktische Implementierung von Optimierungsroutinen ab.
Der Hauptteil umfasst die detaillierte algorithmische Beschreibung von SGLBO und Adam, die Implementierung in Python (sQUlearn) sowie umfangreiche Benchmarks zu verschiedenen Regressionsmodellen.
Die Arbeit ist insbesondere durch Konzepte wie QNN, PQC, Optimierung unter Rauschen und hybride Quanten-klassische Algorithmen charakterisiert.
NISQ-Hardware ist inhärent verrauscht, was die präzise Bestimmung von Erwartungswerten erschwert und neue, robustere Optimierungsstrategien wie SGLBO notwendig macht.
SGLBO ist Adam in verrauschten Umgebungen deutlich überlegen, während Adam in rauschfreien Szenarien bei komplexen Modellen oft stabilere Ergebnisse liefert.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

