Masterarbeit, 2024
67 Seiten, Note: 1,7
1 Einleitung
1.1 Historische VaR Entwicklung
1.2 Bedeutung für Finanzinstitute und Märkte
1.3 Stand der Forschung im Bereich der Prognosequalität von VaR
1.4 Methodisches Vorgehen und Forschungsziel der Arbeit
2 Theoretischer Hintergrund des VaR und ES
2.1 Definitionen und Konzepte des VaR und ES
2.2 VaR Berechnungsmethoden
2.2.1 Untersuchtes Portfolio und Marktdaten
2.2.2 Historische Simulation
2.2.3 Analytische Delta-Normal-Methode
2.2.4 Gewichtete Historische Simulation
2.2.5 Gewichtete Analytische Delta-Normal-Methode
2.3 Backtesting Verfahren
2.3.1 Baseler Ampeltest Verfahren für VaR
2.3.2 Backtest auf Grundlage des t-Test für ES
3 Durchführung der empirischen VaR-Portfolioanalyse
3.1 Auswertung des VaR auf Basis der Historischen Simulation
3.2 Auswertung des VaR auf Basis der Analytischen Delta-Normal-Methode
3.3 Auswertung des VaR auf Basis der gewichteten Historischen Simulation
3.4 Auswertung des VaR auf Basis der gewichteten Analytischen Delta-Normal-Methode
3.5 Zusammenfassung der Auswertungen
4 Ergebnisse und Diskussion der empirischen VaR-Portfolioanalyse
4.1 Vergleich der Prognoseergebnisse der VaR Berechnungsmethoden
4.2 Bewertung der Prognosequalität der VaR Berechnungsmethoden
4.3 Limitationen der empirischen VaR-Portfolioanalyse
5 Fazit und Ausblick
Die Masterarbeit hat zum Ziel, die Prognosequalität verschiedener Value-at-Risk (VaR) und Expected Shortfall (ES) Berechnungsmethoden anhand eines diversifizierten Portfolios zu vergleichen und zu bewerten, um festzustellen, welche Methode die Risiken präziser quantifiziert.
1.1 Historische VaR Entwicklung
Die Entwicklung von Value-at-Risk (VaR) lässt sich auf die frühen 1990er Jahre zurückführen, obwohl die Ursprünge weiter zurückreichen. Bereits in den 1920er Jahren setzte die New Yorker Börse informelle Kapitalanforderungen für Wertpapierfirmen fest, um Verluste abzusichern. Diese Anforderungen entwickelten sich im Laufe der Zeit weiter, insbesondere durch die Einführung der Uniform Net Capital Rule durch die US Securities and Exchange Commission im Jahr 1975, die Sicherheitsabschläge beinhaltete, um Marktverluste abzusichern (Gildemeister, 2020).
Ein entscheidender Meilenstein war der G30-Bericht von 1993 der 20 Best-Practice-Regeln für das Risikomanagement von Derivaten vorschlug und damit auch die Entwicklung von VaR als Maß für Marktpreisrisiken förderte.
Dennis Weatherstone, der Vorsitzende von J.P. Morgan, war ein wesentlicher Treiber der Entwicklung von VaR. Weatherstone war unzufrieden, dass die Risiken verschiedener Finanzinstrumente mit unterschiedlichen Methoden gemessen wurden und forderte einen täglichen einseitigen Risikobericht, der das gesamte Marktrisikoexposure der Bank und die möglichen Verluste innerhalb der nächsten 24 Stunden darstellen sollte. Diese Anforderung führte zur Schaffung des „4:15-Reports“ und schließlich zur Entwicklung von RiskMetrics, welches maßgeblich von Till Guldimann entwickelt wurde (Gildemeister, 2020).
1 Einleitung: Diese Einleitung führt in die Bedeutung der Risikobewertung ein, definiert die Forschungsfrage bezüglich der Prognosequalität von VaR und ES und erläutert das methodische Vorgehen anhand eines diversifizierten Portfolios.
2 Theoretischer Hintergrund des VaR und ES: In diesem Kapitel werden grundlegende Definitionen, mathematische Konzepte sowie die verschiedenen Berechnungsmethoden des VaR und ES (Historische Simulation und Delta-Normal-Methode) sowie Backtesting-Verfahren detailliert dargestellt.
3 Durchführung der empirischen VaR-Portfolioanalyse: Das Kapitel beschreibt die praktische Anwendung der zuvor erläuterten Berechnungsmethoden auf das gewählte fiktive Portfolio, um tägliche Risikokennzahlen über einen Zeitraum von fünf Jahren zu ermitteln.
4 Ergebnisse und Diskussion der empirischen VaR-Portfolioanalyse: Hier erfolgt der Vergleich und die kritische Bewertung der berechneten VaR-Werte mittels Backtest-Verfahren, um die Prognosequalität der verschiedenen Modelle zu evaluieren und aufgestellte Hypothesen zu prüfen.
5 Fazit und Ausblick: Das Fazit fasst die wesentlichen Ergebnisse der Analyse zusammen und gibt einen Ausblick auf die Anwendbarkeit der Modelle sowie auf Möglichkeiten für zukünftige Forschungsarbeiten.
Value-at-Risk, VaR, Expected Shortfall, ES, Historische Simulation, Delta-Normal-Methode, Backtesting, Prognosequalität, Risikomanagement, Marktpreisrisiko, Volatilität, Portfolioanalyse, Finanzmarktstabilität, Risikomodelle, Korrelation.
Die Arbeit untersucht und vergleicht die Prognosequalität verschiedener Methoden zur Berechnung des Value-at-Risk (VaR) und des Expected Shortfall (ES) unter Anwendung auf ein breit diversifiziertes Anlageportfolio.
Die zentralen Themen sind Risikomanagementmethoden, statistische Marktmodellierung, die Anwendung historischer versus analytischer Berechnungsansätze sowie die Validierung dieser Modelle mittels Backtesting.
Das Ziel ist es, zu beurteilen, wie präzise unterschiedliche VaR- und ES-Berechnungsmodelle (ungewichtet vs. gewichtet) Markt- und Inflationsrisiken vorhersagen, um die Eignung der Modelle für Finanzinstitute zu bewerten.
Es werden historische Daten über fünf Jahre für ein Portfolio aus Aktien, Währungen, Edelmetallen und Kryptowährungen genutzt, um Simulationen durchzuführen, die dann statistisch mit t-Tests und Ampel-Backtests validiert werden.
Der Hauptteil gliedert sich in die theoretische Fundierung der mathematischen Modelle, die praktische Implementierung der Risikoanalysen und die empirische Gegenüberstellung und Diskussion der erzielten Prognoseergebnisse.
Wichtige Begriffe sind Value-at-Risk, Expected Shortfall, Backtesting, Prognosequalität, Historische Simulation und Delta-Normal-Methode.
Die Ergebnisse zeigen, dass gewichtete Ansätze tendenziell aktueller auf Marktveränderungen reagieren, jedoch in manchen Phasen anfälliger für Volatilitätsschwankungen sein können als ungewichtete Modelle.
Die analytische Delta-Normal-Methode zeichnete sich durch eine hohe Zuverlässigkeit aus, während die historische Simulation je nach Marktphase unterschiedlich stabil agierte; insgesamt ist eine sorgfältige Selektion der Modelle je nach Marktlage entscheidend.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

