Wohl eines der komplexesten Objekte der modernen Wissenschaft stellt das Gehirn des Menschen dar und ist damit eines der am wenigsten verstandenen Phänomene der Natur. Die Komplexität der synaptischen Vernetzung im Gehirn ermöglicht solch schwer in mathematischer Sprache faßbare Dinge wie Lernen, Wissen, Verstehen, Sprache und Bewußtsein, um nur einige zu nennen. Die Schwierigkeiten bei der Erforschung des Gehirns haben im wesentlichen zwei Gründe. Welche Fragen soll man stellen, d.h. wo nach soll man suchen, wenn man z.B. Bewußtsein erklären möchte und wie kann man die astronomische Anzahl von Neuronen und Synapsen, aus dem sich das Gehirn zusammensetzt, in den Griff bekommen? Die Antworten auf unsere Fragen, die wir eventuell noch nicht richtig gestellt haben, verbergen sich in der Komplexität der Verbindungen der Neuronen untereinander.
Neben den klassischen Disziplinen zur Untersuchung des menschlichen Gehirns, wie der Philosophie, Neurologie und vielleicht auch der Theologie, haben sich in jüngster Zeit zwei neue Ansätze entwickelt, die sich aufteilen in die Lager der Künstlichen Intelligenz (AI, articial intelligence) und der künstlichen neuronalen Netze (AN, artificial neural networks. Die AI ist mit ihrem Ansatz bemüht, auf herkömmlichen Computerarchitekturen Wissen zu repräsentieren wobei Wissen sowohl Fakten, wie "Holz brennt", als auch Folgerungen, wie "Häuser bestehen aus Holz. Also: Häuser brennen" mit einschließt. Sie geht davon aus, daß Intelligenz auf Wissen basiert, sowie auf die Fähigkeit, logische Schlußfolgerungen zwischen den Faktenherzustellen. Dazu ist die AI auf große und schnelle Speicher, sowie auf effiziente Suchalgorithmen angewiesen. Die Erforschung künstlicher neuronaler Netze hat das Ziel, reine Erkenntnis über die Arbeitsweise des Gehirns zu gewinnen und damit uns selber besser zu verstehen und in Zukunft die Struktur des Gehirns als neue Rechenarchitektur nachzubilden, mit all den potentiellen Fähigkeiten, die wir selber besitzen. Noch ist dieses Forschungsgebiet jedoch angewiesen auf schnelle herkömmliche Computer, um auf diesen die parallele Arbeitsweise neuronaler Netze zu simulieren. Die Forschung ist damit natürlich den Einschränkungen unterworfen, die heutige Computer mit sich bringen, z.B. mangelnde Geschwindigkeit durch serielle Simulation paralleler Arbeitschritte
Inhaltsverzeichnis
- Vorwort
- 1 Einleitung
- 2 Nichtlineare Systeme
- 2.1 Die Belousov-Zhabotinskii Reaktion.
- 2.1.1 Der Oregonator
- 2.1.2 Der Montanator.
- 2.1.3 Der Single-Current-Oscillator (SCO)
- 2.2 Das Rössler-System.
- 2.1 Die Belousov-Zhabotinskii Reaktion.
- 3 Neuronale Netze.
- 3.1 Feedforward-Netzwerke.
- 3.1.1 Der Back-Propagation Lernalgorithmus
- 3.1.2 Overtraining.
- 3.2 Recurrent Neural Networks
- 3.3 Openloop-Lernen
- 3.1 Feedforward-Netzwerke.
- 4 Dynamische neuronale Netze
- 4.1 Die Topologie
- 4.2 Das Lernverfahren
- 4.3 Skalierung.
- 4.4 Gelernte Attraktoren
- 4.4.1 Der SCO.
- 4.4.1.1 Periode
- 4.4.2 Der 3-Variablen Montanator
- 4.4.2.1 Periode 2
- 4.4.3 Das Rössler System.
- 4.4.3.1 Periode 2
- 4.4.3.2 Periode 3
- 4.4.1 Der SCO.
- 4.5 Zusammenfassung
- 5 Analyse
- 5.1 Korrelation
- 5.2 Relative Gewichte und Informationstheorie .
- 5.2.1 Relatives Gewicht.
- 5.2.2 Information
- 5.2.3 Ergebnisse der Berechnungen
- 5.3 Differentiation.
- 5.4 Zusammenfassung
- 6 Linearisierung und Phasenraumanalyse
- 6.1 Motivation der Linearisierung
- 6.1.1 Eliminieren der linearen versteckten Schichten
- 6.1.2 Linear abhängige Neuronen
- 6.2 Linearisierung.
- 6.2.1 Lösung der linearen Abbildung
- 6.3 Der Phasenraum
- 6.4 Funktionsgeneratoren.
- 6.4.1 Frequenzänderung
- 6.4.2 Attraktorgenerierung.
- 6.1 Motivation der Linearisierung
- 7 Zusammenfassung der Ergebnisse
Zielsetzung und Themenschwerpunkte
Diese Diplomarbeit befasst sich mit dem Einsatz von künstlichen neuronalen Netzen zur Simulation und Analyse nichtlinearer dynamischer Systeme. Das Ziel ist es, die Fähigkeiten von Neuronalen Netzen zur Approximation komplexer dynamischer Prozesse zu erforschen und die Ergebnisse in Hinblick auf ihre Bedeutung für die Modellierung realer Systeme zu diskutieren.
- Die Anwendung von Neuronalen Netzen zur Simulation nichtlinearer dynamischer Systeme
- Die Analyse der Fähigkeiten von Neuronalen Netzen bei der Approximation komplexer Dynamiken
- Die Untersuchung der Unterschiede zwischen Feedforward- und Recurrent-Neuralen Netzen im Kontext der Modellierung dynamischer Systeme
- Die Erforschung des Einflusses von Lernalgorithmen und Netzwerkarchitekturen auf die Leistungsfähigkeit von Neuronalen Netzen
- Die Interpretation der Ergebnisse im Hinblick auf ihre Relevanz für die Modellierung realer Systeme
Zusammenfassung der Kapitel
Die Arbeit beginnt mit einer Einführung in nichtlineare dynamische Systeme und den Anwendungsbereich von Neuronalen Netzen. Kapitel 2 behandelt verschiedene Modelle nichtlinearer Systeme, darunter die Belousov-Zhabotinskii Reaktion, das Rössler-System und verschiedene oszillierende Systeme. Kapitel 3 beschäftigt sich mit der Funktionsweise von Neuronalen Netzen, sowohl Feedforward-Netzwerken als auch Recurrent-Neuralen Netzen, und beleuchtet den Back-Propagation-Lernalgorithmus. Kapitel 4 führt in die Architektur und das Lernverfahren dynamischer Neuronaler Netze ein und untersucht die Fähigkeit dieser Netze, Attraktoren verschiedener Systeme zu lernen. Kapitel 5 analysiert die Korrelation, die relativen Gewichte und die Informationsgewinnung in den neuronalen Netzen. Schließlich behandelt Kapitel 6 die Linearisierung und Phasenraumanalyse von Neuronalen Netzen, um die Funktionsweise der Netze besser zu verstehen.
Schlüsselwörter
Neuronale Netze, Nichtlineare Systeme, Dynamische Systeme, Belousov-Zhabotinskii Reaktion, Rössler-System, Feedforward-Netzwerke, Recurrent-Neural Networks, Back-Propagation-Lernalgorithmus, Attraktor, Korrelation, Relative Gewichte, Informationstheorie, Linearisierung, Phasenraum
- Quote paper
- Oliver Heil (Author), 1995, Neuronale Netzwerke mit Rückkopplung und nichtlineare chemische Reaktionen, Munich, GRIN Verlag, https://www.hausarbeiten.de/document/23372