Diplomarbeit, 2002
197 Seiten, Note: sehr gut
1. EINLEITUNG
2. EIN NEUES WELTBILD
2.1 PARADIGMENWECHSEL NACH T. S. KUHN
2.2 DAS NOCH VORHERRSCHENDE BZW. ALTE WELTBILD (REDUKTIONISMUS)
2.3 DAS VORDRÄNGENDE BZW. NEUE WELTBILD (HOLISMUS)
2.4 DAS KOMPLEXE GEHIRN, KLASSISCHE KI UND KONNEKTIONISMUS
3. CHAOSTHEORIE
3.1 ÜBERWINDUNG DES ALTEN WELTBILDS
3.2 GESCHICHTE DER CHAOSTHEORIE
3.3 DETERMINISTISCHES CHAOS
3.4 DIE WICHTIGSTEN CHARAKTERISTIKA DES DETERMINISTISCHEN CHAOS
3.4.1 Nichtlinearität und neues Kausalitätsprinzip
3.4.2 Hohe Sensitivität von den Anfangsbedingungen und Grenzen der Vorhersagbarkeit
3.4.3 Rückkopplung, Bifurkation, Intermittenz, Selbstorganisation und die besondere Rolle der Zeit
3.4.3.1 Beispiel: Die Logistische Abbildung
3.4.4 Geometrische Betrachtung des deterministischen Chaos
3.4.4.1 Phasenraum
3.4.4.2 Attraktoren (Punktattraktor – Grenzzyklus – seltsamer Attraktor)
3.4.4.3 Fraktale Geometrie und Selbstähnlichkeit
3.4.5 Beispiel: Untersuchungen von W. Freeman
3.5 CHAOSTHEORIE IN DER PSYCHOLOGIE
3.5.1 Gegenstandsangemessenheit der Chaostheorie im Hinblick auf die Psychologie
3.5.2 Fragestellungen der Psychologie im Forschungsfeld der Chaostheorie
3.5.3 Erste Forschungsarbeiten
4. SELBSTORGANISATION UND CHAOS IM NEURONALEN NETZ DES GEHIRNS
4.1 CHAOSTHEORETISCHER ZUGANG ZUM GEHIRN
4.1.1 Die Komplexität des Gehirns
4.1.2 Ontogenese des Gehirns
4.1.3 Zusammenschaltung von Neuronen
4.1.4 Selbstorganisation und Plastizität des Gehirns
4.1.5 Das Gehirn als Prototyp komplexer Systeme
4.1.6 Interdisziplinarität der Gehirnforschung
4.2 DAS GEHIRN ALS SIGNALQUELLE
4.2.1 Untersuchungsmethoden
4.2.2 Was ist die Sprache des Gehirns?
4.2.3 Ist das Gehirn chaotisch?
4.3 BIOMEDIZINISCHE ZEITREIHEN
4.3.1 Zeitreihen
4.3.2 Verfahren zur Rekonstruktion des Originalsystems
4.3.3 Die wichtigsten biophysiologischen Zeitreihen
4.3.4 Das EEG als makroskopisches Signal
4.4 METHODE DER SIGNALANALYSE
4.4.1 Lineare Methoden
4.4.2 Nichtlineare Methoden
4.5 VORSTELLUNG DER GÄNGIGSTEN METHODEN DER NICHTLINEAREN ZEITREIHEN-ANALYSE
4.5.1 Quantitative Beschreibung einer chaotischen Dynamik
4.5.2 Darstellung im Phasenraum
4.5.2.1 Takens-Theorem
4.5.2.2 Einbettung der Zeitreihe
4.5.2.3 Phasenraumdarstellung
4.5.3 Korrelationsdimension
4.5.4 Lyapunov-Exponenten
4.5.4.1 Die lokalen Lyapunov-Exponenten
4.5.4.2 Der maximale Lyapunov-Exponent
4.5.4.3 Das Lyapunov-Spektrum
4.6 ANWENDUNGSBEISPIELE
4.6.1 Fokale Epilepsie
4.6.2 Tinnitus
4.7 ERKENNTNISSTAND
5. SELBSTORGANISATION IN KÜNSTLICHEN NEURONALEN NETZEN
5.1 GRUNDLAGEN UND GESCHICHTE
5.2 AUFBAU VON KNN
5.2.1 Aufbau und Funktionsweise eines künstlichen Neurons
5.2.1.1 Gewichtung
5.2.1.2 Aufsummierung
5.2.1.3 Aktivierungsfunktion
5.2.2 Aufbau eines Netzwerks
5.2.3 Gemeinsamkeiten und Unterschiede zum Gehirn
5.3 KLASSIFIKATION VON KNN
5.3.1 Feedforward-Netze
5.3.2 Feedback-Netze
5.4 LERNEN IN KNN
5.4.1 Überwachtes Lernen (supervised learning)
5.4.2 Bestärkendes Lernen (reinforcement learning)
5.4.3 Unüberwachtes Lernen (unsupervised learning)
5.5 BEISPIELE FÜR KNN
5.5.1 Beispiele für Feedforward-Netze
5.5.1.1 Das Perceptron
5.5.1.2 Das Multilayer-Perceptron (MLP)
5.5.1.3 Die Selbstorganisierende Karte (SOM)
5.5.2 Beispiele für Feedback-Netze
5.5.2.1 Das Jordan-Netz
5.5.2.2 Das Elman-Netz
5.5.2.3 Das Hopfield-Netz
5.6 VORTEILE UND NACHTEILE VON KNN
5.6.1 Vorteile von KNN
5.6.2 Nachteile von KNN
6. NICHTLINEARE DYNAMIK UND KÜNSTLICHE NEURONALE NETZE
6.1 ZWEI GRUNDLEGENDE ANWENDUNGEN VON KNN
6.1.1 Gliederung in Konnektionistische Modelle und KNN-Anwendungen
6.1.2 Problemstellungen der KNN-Anwendungen
6.1.3 Der Bedarf an Intelligenten Informationssystemen
6.1.4 Die besondere Eignung von KNN für realweltliche Zusammenhänge
6.1.4.1 Anforderungen der Realität
6.1.4.2 Der entscheidende Vorteil von KNN
6.2 KNN ALS ERSATZ HERKÖMMLICHER STATISTISCHER VERFAHREN?
6.3 ANFORDERUNGEN AN UND KATEGORISIERUNG VON KNN
6.3.1 Anforderungen an den Einsatz von KNN
6.3.1.1 Anforderungen an die Datenbasis
6.3.1.2 Wissenschaftstheoretische Anforderungen an ein Modell
6.3.1.3 Benutzerorientierte Anforderungen an ein Modell
6.3.1.4 Resümee
6.3.2 Kategorisierung von KNN nach der Aufgabenstellung
6.3.2.1 Dependenzanalyse
6.3.2.2 Interdependenzanalyse
6.3.2.3 Typisches Beispiel eines KNN zur Dependenzanalyse
6.3.2.4 Typisches Beispiel eines KNN zur Interdependenzanalyse
6.4 AUSWAHL EINES GEEIGNETEN VERFAHRENS
6.4.1 Orientierung an zwei Fragestellungen
6.4.2 Parametrische Verfahren
6.4.3 Künstliche Neuronale Netze
6.4.4 Neuro-Fuzzy-Methoden
6.4.5 Entscheidungsbäume
6.4.6 Zielkonflikt
6.4.7 KNN – Erweiterung statt Ersatz
6.5 VORGEHEN BEI DER MODELLBILDUNG MIT KNN
6.5.1 Modellbildungsprozess (Überblick)
6.5.2 Problemdefinition und Datenakquise (allgemeine Modellbildungsschritte)
6.5.3 Datenvorverarbeitung (allgemeiner Modellbildungsschritt)
6.5.3.1 Codierung
6.5.3.2 Datenkompression
6.5.4 Aufteilung der Stichprobe
6.5.5 Lernphase (Gewichtsanpassung)
6.5.6 Validierungsphase (Optimierung des KNN)
6.5.7 Testphase (Wahl eines Fehlermaßes)
6.5.8 Anwendungsphase
6.6 ABSCHLIEßENDE BEMERKUNGEN
7. CHAOS UND KÜNSTLICHE NEURONALE NETZE
7.1 BIOLOGISCHER HINTERGRUND
7.2 DIE RELEVANZ VON CHAOS FÜR DIE INFORMATIONSVERARBEITUNG IN KNN
7.2.1 Künstliches Gedächtnis basierend auf UPOs des chaotischen Attraktors
7.2.2 Spontaner Übergang zwischen lokalen Strukturen
7.2.3 Informationsübertragung zwischen mirko- und makroskopischem Level
7.2.4 Synchronisation
7.2.5 Clustering
7.2.6 Erhöhter Informationstransfer
7.3 CHAOS IN EINEM 2-NEURONEN KNN
7.4 CHAOSKONTROLLE
7.4.1 Die Methode von Pyragas
7.4.2 Algorithmus der Methode von Pyragas
7.4.3 Beispiel zur Pyragas-Methode
7.5 SIMULATIONEN MIT CHAOSKONTROLLE
7.5.1 Das Modell von Jones, Tsui und de Oliveira (2002a)
7.5.1.1 Das Netzwerk
7.5.1.2 Gamma Test
7.5.1.3 Training des Netzwerks
7.5.1.4 Chaoskontrolle
7.5.1.5 Gesamtergebnis
7.5.1.6 Ergebnisse im Detail
7.5.2 Eine neue chaotische Netzwerkarchitektur von Crook und Scheper (2001)
7.5.2.1 Das Netzwerk
7.5.2.2 Erste experimentelle Ergebnisse
7.6 SIMULATIONEN MIT SYNCHRONISATION
7.6.1 Synchronisation zweier Netzwerke zur Simulation der Hénon-Zeitreihe
8. ZUKUNFTSPERSPEKTIVEN IM BEREICH DER HIRNFORSCHUNG
8.1 INTERDISZIPLINARITÄT
8.1.1 Wechselbeziehung von Informations- und Neurowissenschaften
8.1.2 Bildgebende Verfahren
8.2 KOMPLEXITÄT
8.2.1 Strukturelle Komplexität (anatomische Komplexität)
8.2.2 Dynamische Komplexität (zeitliche Organisation von Prozessen)
8.3 VERHALTENSRELEVANZ
8.4 SYMBOLISCHE UND SUBSYMBOLISCHE REPRÄSENTATION
8.5 FAZIT
Die vorliegende Diplomarbeit befasst sich mit der Untersuchung neuronaler Netze im Kontext der Psychologie, unter besonderer Berücksichtigung chaostheoretischer Ansätze und der Selbstorganisation. Ziel ist es, aufzuzeigen, wie nichtlineare Dynamiken und chaotische Prozesse das Verständnis komplexer Gehirnstrukturen und -funktionen erweitern und welche methodischen Möglichkeiten sich durch die Kopplung von Chaostheorie und künstlichen neuronalen Netzen für die Modellierung kognitiver Prozesse ergeben.
3.4.1 Nichtlinearität und neues Kausalitätsprinzip
Eine der kennzeichnensten Eigenschaften von Systemen, die den Regeln des deterministischen Chaos gehorchen, ist die Nichtlinearität. Man bezeichnet ein System als nichtlinear, wenn eine Eingabe (Änderung eines Parameters, Störung, Fluktuation) nicht zu einer proportionalen Veränderung anderer Variablen führt. Solch eine Abweichung kann beispielsweise in der Welt der Aktien dazu führen, dass bereits wenige Investoren einen Börsensturz auslösen.
Auch der Volksmund kennt dieses Phänomen. Er sagt: Kleine Ursache, große Wirkung, wenn eine unwesentlich erscheinende Abweichung in einem vertrauten Ablauf zu völlig überraschenden, aber wesentlichen Änderungen führt (Morfill & Scheingraber, 1993).
„In der Natur sind praktisch alle Vorgänge nichtlinear (Morfill & Scheingraber, 1993, S. 288)“. Diese Tatsache steht allerdings in direktem Widerspruch zum Kausalitätsprinzip der klassischen Experimental-Wissenschaften, denn dieses besagt: Gleiche Ursachen haben gleiche Wirkungen. Eine der grundlegenden Forderungen der Experimental-Wissenschaften lautet aus diesem Grund auch: „Ein Experiment muss (wenigstens im Prinzip) jederzeit und überall wiederholbar sein, das heißt, es muss unter gleichen Bedingungen gleiche Ergebnisse liefern (Morfill & Scheingraber, 1993, S. 42)“. Diese Aussage erscheint auf den ersten Blick recht plausibel, aber unter gleichen Bedingungen (im mathematisch Sinne: absolut identischen Umständen) können wir ein Experiment gar nicht wiederholen. Dennoch hat sich diese Betrachtungsweise für isolierte Vorgänge als sehr nützlich erwiesen. Bei komplexen Systemen mit vielfältigen Zusammenhängen versagt sie jedoch, da es in den meisten Fällen unmöglich ist, „zwischen einzelnen Ereignissen eindeutige Ursache-Wirkungs-Verknüpfungen zu konstruieren (Morfill & Scheingraber, 1993, S. 282)“.
1. EINLEITUNG: Die Arbeit führt in das neue wissenschaftliche Paradigma der nichtlinearen Dynamik ein und erläutert deren Relevanz für psychologische Forschungsfragen.
2. EIN NEUES WELTBILD: Hier wird der fundamentale Wandel vom klassischen, reduktionistischen Weltbild hin zu einem holistischen Verständnis komplexer Systeme und deren Bedeutung für die moderne Hirnforschung beschrieben.
3. CHAOSTHEORIE: Dieses Kapitel definiert die Grundlagen des deterministischen Chaos, dessen zentrale Merkmale wie Nichtlinearität und Initialwertsensitivität sowie dessen Anwendungspotenziale in der Psychologie.
4. SELBSTORGANISATION UND CHAOS IM NEURONALEN NETZ DES GEHIRNS: Die Anwendung chaostheoretischer Konzepte auf das menschliche Gehirn wird beleuchtet, wobei Methoden der Signalanalyse und deren Anwendung bei Krankheitsbildern wie Epilepsie oder Tinnitus im Fokus stehen.
5. SELBSTORGANISATION IN KÜNSTLICHEN NEURONALEN NETZEN: Das Kapitel bietet eine Einführung in die Grundlagen, den Aufbau, verschiedene Lerntypen sowie die Vor- und Nachteile künstlicher neuronaler Netze.
6. NICHTLINEARE DYNAMIK UND KÜNSTLICHE NEURONALE NETZE: Es wird die Brücke zwischen nichtlinearer Dynamik und künstlichen neuronalen Netzen geschlagen, insbesondere im Hinblick auf deren Eignung als Instrumente der Datenanalyse und Modellbildung.
7. CHAOS UND KÜNSTLICHE NEURONALE NETZE: Hier werden spezifische Ansätze der Chaoskontrolle und Synchronisation in neuronalen Modellen sowie deren Ähnlichkeiten zu biologischen Prozessen diskutiert.
8. ZUKUNFTSPERSPEKTIVEN IM BEREICH DER HIRNFORSCHUNG: Abschließend werden die Notwendigkeit von Interdisziplinarität sowie die Bedeutung struktureller und dynamischer Komplexität für das zukünftige Verständnis kognitiver Leistungen erörtert.
Chaostheorie, Selbstorganisation, Neuronale Netze, Nichtlinearität, Deterministisches Chaos, Holismus, EEG-Analyse, Konnektionismus, Komplexität, Synchronisation, Chaoskontrolle, Dynamische Systeme, Hirnforschung, Mustererkennung, Zeitreihenanalyse
Die Arbeit untersucht die Anwendung der Chaostheorie und von Modellen der Selbstorganisation auf das menschliche Gehirn sowie auf künstliche neuronale Netze, um ein besseres Verständnis für komplexe dynamische Systeme in der Psychologie zu gewinnen.
Zentral sind der Paradigmenwechsel vom Reduktionismus zum Holismus, die mathematischen Grundlagen deterministischen Chaos, sowie die methodische Umsetzung in der biologischen Hirnforschung und der künstlichen Intelligenz.
Das primäre Ziel ist es, die Eignung chaostheoretischer Instrumentarien für psychologische Fragestellungen zu evaluieren und aufzuzeigen, wie neuronale Netze als komplexe, nichtlineare Systeme modelliert und analysiert werden können.
Es werden methodische Ansätze der nichtlinearen Zeitreihenanalyse, wie die Darstellung im Phasenraum, die Bestimmung der Korrelationsdimension und Lyapunov-Exponenten, sowie die Architektur und Trainingsverfahren künstlicher neuronaler Netze behandelt.
Der Hauptteil gliedert sich in die theoretischen Grundlagen der Chaostheorie, deren Anwendung auf das EEG und klinische Phänomene, die Konstruktion und Funktionsweise künstlicher neuronaler Netze sowie die Simulation chaotischer Netzwerke mittels Chaoskontrolle.
Die Arbeit wird maßgeblich durch Begriffe wie Chaostheorie, Selbstorganisation, Konnektionismus, Nichtlinearität, deterministisches Chaos, neuronale Netze und dynamische Komplexität charakterisiert.
Die Zeit fungiert in der Chaostheorie als innovative Kraft. Kritische Punkte (Bifurkationen) führen eine historische Komponente ein, bei der die aktuelle Entwicklung des Systems von vergangenen Zuständen und getroffenen Wahlen an Verzweigungspunkten abhängt.
Das EEG spiegelt eine hochkomplexe, nichtlineare Dynamik wider. Die Annahme, dass es sich dabei um deterministisches Chaos handelt – erzeugt durch synchronisierte neuronale Ensembles – ermöglicht neue Einblicke in die Informationsverarbeitung, die über die Interpretation als einfaches statistisches Rauschen hinausgehen.
Während der Reduktionismus versucht, Phänomene auf die Summe ihrer Einzelteile zurückzuführen, erkennt der Holismus, dass komplexe Systeme Eigenschaften besitzen, die emergent sind – das Ganze ist mehr als die Summe seiner Teile.
Die Chaoskontrolle erlaubt es, das System auf instabilen periodischen Orbits (UPOs) zu stabilisieren. Dies ist für neuronale Systeme hochrelevant, da es eine effiziente Speicherung und den flexiblen Abruf von Gedächtnisinhalten ermöglicht, ohne das System starr und unflexibel zu machen.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

