Diplomarbeit, 1995
118 Seiten, Note: 1.0
Diese Diplomarbeit befasst sich mit dem Einsatz von künstlichen neuronalen Netzen zur Simulation und Analyse nichtlinearer dynamischer Systeme. Das Ziel ist es, die Fähigkeiten von Neuronalen Netzen zur Approximation komplexer dynamischer Prozesse zu erforschen und die Ergebnisse in Hinblick auf ihre Bedeutung für die Modellierung realer Systeme zu diskutieren.
Die Arbeit beginnt mit einer Einführung in nichtlineare dynamische Systeme und den Anwendungsbereich von Neuronalen Netzen. Kapitel 2 behandelt verschiedene Modelle nichtlinearer Systeme, darunter die Belousov-Zhabotinskii Reaktion, das Rössler-System und verschiedene oszillierende Systeme. Kapitel 3 beschäftigt sich mit der Funktionsweise von Neuronalen Netzen, sowohl Feedforward-Netzwerken als auch Recurrent-Neuralen Netzen, und beleuchtet den Back-Propagation-Lernalgorithmus. Kapitel 4 führt in die Architektur und das Lernverfahren dynamischer Neuronaler Netze ein und untersucht die Fähigkeit dieser Netze, Attraktoren verschiedener Systeme zu lernen. Kapitel 5 analysiert die Korrelation, die relativen Gewichte und die Informationsgewinnung in den neuronalen Netzen. Schließlich behandelt Kapitel 6 die Linearisierung und Phasenraumanalyse von Neuronalen Netzen, um die Funktionsweise der Netze besser zu verstehen.
Neuronale Netze, Nichtlineare Systeme, Dynamische Systeme, Belousov-Zhabotinskii Reaktion, Rössler-System, Feedforward-Netzwerke, Recurrent-Neural Networks, Back-Propagation-Lernalgorithmus, Attraktor, Korrelation, Relative Gewichte, Informationstheorie, Linearisierung, Phasenraum
Dynamische neuronale Netze können die Zeitreihen nichtlinearer Reaktionen (wie der Belousov-Zhabotinskii-Reaktion) lernen und deren Schwingungsverhalten als Attraktoren im Phasenraum nachbilden.
Feedforward-Netze leiten Informationen nur in eine Richtung weiter, während Recurrent Neural Networks (RNN) Rückkopplungen besitzen, die sie für die Modellierung zeitabhängiger Prozesse prädestinieren.
Das Rössler-System ist ein mathematisches Modell für deterministisches Chaos, an dem die Fähigkeit neuronaler Netze zur Approximation komplexer, nichtlinearer Dynamiken getestet wurde.
Die Linearisierung dient dazu, die interne Arbeitsweise des Netzes besser zu verstehen, indem komplexe Funktionen lokal vereinfacht und im Phasenraum analysiert werden.
Overtraining tritt auf, wenn ein Netzwerk die Trainingsdaten auswendig lernt, statt allgemeine Muster zu erkennen, wodurch die Fähigkeit zur Vorhersage neuer Daten sinkt.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

