Masterarbeit, 2022
87 Seiten, Note: 2,0
1 Einleitung
1.1 Relevanz
1.2 Zielsetzung
1.3 Vorgehensweise
2 Literaturvergleich
2.1 Überblick über Kapitalmarkttheorien
2.2 Aktienanalyse
2.3 Stand der Forschung
3 Künstliche neuronale Netze
3.1 Aufbau und Bestandteile künstlicher neuronaler Netze
3.1.1 Schichtmodell
3.1.2 Künstliche Neuronen
3.2 Machine Learning und Deep Learning
3.2.1 Grundlagen
3.2.2 Training
3.2.3 Lernregeln
3.2.4 Regularisierung und Testphase
3.3 Arten von KNN
3.3.1 Rekurrente neuronale Netze
3.3.2 Long Short-term Memory Netze
4 Datengrundlage
4.1 Small Caps
4.2 Weitere Zeitreihen und Restriktionen
4.3 Entwicklungsumgebung und Programmiersprache
5 Durchführung der Zeitreihenprognose
5.1 Import und Vorverarbeitung
5.2 Datenanalyse
5.3 Datenpartitionierung
5.4 Datenreorganisation
5.5 LSTM Netz
5.6 Prognosebewertung
5.7 Exportfunktion
6 Ergebnisdarstellung und -würdigung
6.1 Prognoseaufbau
6.2 Versuchsreihe I – Schlusskurse
6.3 Versuchsreihe II – Aktiendaten
6.4 Versuchsreihe III – Kalendarische Daten
6.5 Versuchsreihe IV – gleitende Mittelwerte
6.6 Versuchsreihe V – Indexe
6.7 Versuchsreihe VI – Tagesrenditen
6.8 Versuchsreihe VII – Reorganisation der Zeitreihe
6.9 Versuchsreihe VIII – Vergleich der Indexe
6.10 Zusammenfassung
7 Bewertung und kritische Würdigung
7.1 Prognosen und Datengrundlage
7.2 Hyperparameteroptimierung
7.3 Kennzahlen und Bewertung
8 Fazit
8.1 Zusammenfassung und Würdigung
8.2 Ausblick
Die Arbeit untersucht die Prognosemöglichkeit von Aktienkursen kleinerer Unternehmen (Small Caps) aus der DACH-Region unter Einsatz von Deep Learning Methoden, speziell Long Short-term Memory (LSTM) Netzen. Ziel ist die Prüfung, ob mittels dieser Modelle eine präzise Kursprognose für Investitionsentscheidungen realisiert werden kann.
3.3.2 Long Short-term Memory Netze
Den dargelegten Problemen haben sich Sepp Hochreiter und Jürgen Schmidhuber bereits 1997 durch die Entwicklung von Long Short-term Memory (LSTM) Zellen bzw. Netzen, Subtyp der RNN, angenommen (vgl. D'Onofrio und Meier 2021, 35). Eine wesentliche Erweiterung der LSTM Zelle erfolgte durch Felix Gers durch Hinzufügen eines Forget-Gates (vgl. Gers et al. 2000, 2455f). LSTM Zellen sind wesentlich komplexer und verfügen über ein Gedächtnis, dass das Problem von RNN Layern löst und sich damit, neben der Arbeit mit langen Zeitreihen, auch für eine Vielzahl weiterer Praxisprobleme eignet (vgl. Hirschle 2021, 190f). Konkret erhalten LSTM Neuronen nicht wie die bisher vorgestellten Neuronen lediglich den Output der vorherigen Zelle, sondern daneben, wie RNN, den hidden state h_{t-1} und zusätzlich einen Zellzustand c_{t-1}. Auch über längere Zeit kann das Netz Informationen im Gedächtnisblock, dem Zellzustand c_{t}, halten, hinzufügen und löschen, kontrolliert durch Gates (Gatter bzw. Tore). Forget Gates (Vergessenstore) sind in der Lage zu erlernen, ob Inhalte von Gedächtniseinheiten teilweise oder gesamt obsolet geworden sind (vgl. Gers et al. 2000, 2455). Input Gates ermöglichen die Aufnahme weiterer Informationen.
1 Einleitung: Beleuchtet die Relevanz der Kursprognose und definiert die Zielsetzung sowie die Vorgehensweise der Arbeit.
2 Literaturvergleich: Analysiert Kapitalmarkttheorien wie die Markteffizienzhypothese sowie Methoden der Aktienanalyse im Kontext der Forschung.
3 Künstliche neuronale Netze: Erläutert theoretische Grundlagen von KNN, Machine Learning und insbesondere die Funktionsweise von LSTM Netzen.
4 Datengrundlage: Definiert das Small-Cap-Universum und beschreibt die Akquise sowie Aufbereitung historischer Aktiendaten.
5 Durchführung der Zeitreihenprognose: Beschreibt den Prozess vom Datenimport über Vorverarbeitung und Partitionierung bis hin zur Netzkonfiguration.
6 Ergebnisdarstellung und -würdigung: Präsentiert die Ergebnisse der acht durchgeführten Versuchsreihen mit variierenden Parametern und Input-Features.
7 Bewertung und kritische Würdigung: Hinterfragt die Prognoseergebnisse sowie die Methodik der Hyperparameteroptimierung und Kennzahlenbildung.
8 Fazit: Fasst die Erkenntnisse zusammen und wagt einen Ausblick auf technologische Entwicklungen in der Kursvorhersage.
Small Caps, Deep Learning, LSTM, Kursprognose, künstliche neuronale Netze, Aktienanalyse, Zeitreihenprognose, Markteffizienz, Behavioral Finance, Machine Learning, Datenpartitionierung, Backpropagation, Handelsdaten, DACH-Region, Prognosebewertung.
Die Arbeit untersucht, ob Aktienkurse von Unternehmen mit geringer Marktkapitalisierung (Small Caps) aus der DACH-Region mittels Deep-Learning-Algorithmen präzise vorhergesagt werden können.
Die Themenfelder umfassen theoretische Ansätze zur Kapitalmarkteffizienz, die technische Implementierung künstlicher neuronaler Netze, insbesondere vom Typ LSTM, sowie die empirische Analyse von Aktienkurszeitreihen.
Das primäre Ziel ist die Überprüfung, ob künstliche neuronale Netze in der Lage sind, Kursentwicklungen von Small Caps mit einer Genauigkeit abzubilden, die für fundierte Investitionsentscheidungen genutzt werden kann.
Es wird eine quantitative Analyse durchgeführt, bei der verschiedene Konfigurationen von Long Short-term Memory (LSTM) Netzen in acht unterschiedlichen Versuchsreihen auf historische Finanzmarktdaten angewendet werden.
Der Hauptteil gliedert sich in theoretische Grundlagen zu neuronalen Netzen, die Beschreibung der Datenbasis und Methodik sowie die detaillierte Darstellung und kritische Evaluation der acht Versuchsreihen basierend auf ihren Prognoseergebnissen.
Die Arbeit ist insbesondere durch Begriffe wie Deep Learning, LSTM, Small Caps, Zeitreihenprognose, Markteffizienz und die quantitative Performancemessung mittels MAPE (Mean Absolute Percentage Error) geprägt.
Small Caps wurden gewählt, da ihre Kurse sich oft seltener oder weniger volatil ändern als die von Large Caps, was die theoretische Annahme einer möglicherweise guten Prognostizierbarkeit auf Basis von Vergangenheitsdaten stützt.
Diese dienen als triviale Vergleichsmaßstäbe (Benchmarks), um die Prognosegüte der komplexen LSTM-Modelle einzuordnen; die Arbeit zeigt, dass die LSTM-Modelle diese einfachen Methoden in der Regel nicht schlagen können.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

