Zusammenfassung
Neuronale Netze sind Strukturen für die Lösung kognitiver Aufgaben, die im weiteren Sinne auf den Erkenntnissen der Funktionsweise des Gehirns basieren. Ein Neuronales Netz besteht aus elementaren Verarbeitungseinheiten, den Neuronen, die in Abhängigkeit der eintreffenden Signale anderer Einheiten ihren Aktivierungszustand aktualisieren. Es besitzt eine Netzstruktur, deren Knoten den Verarbeitungseinheiten entsprechen und deren gewichtete Verbindungen die Kommunikationskanäle innerhalb des Netzes darstellen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Referenzen
Zu der in der Arbeit verwendeten Notation sei gesagt, daß aus Gründen der Übersichtlichkeit nicht zwischen Einzelwerten und Vektoren unterschieden wird.
Siehe auch hierzu weiter unten im Text der Begriff short-term memory, welcher das aktuelle Aktivierungsmuster der Neuronen kennzeichnet, im Gegensatz zu dem durch das Lernen erworbene Strukturwissen des long-term memory, welches sich in den Gewichten manifestiert.
So wird der Begriff Netzarchitektur in vorliegender Arbeit einmal statisch, indem er gemäß der Art der Verknüpfung der Neuronen hierarchische und nichthierarchische Netzwerke unterscheidet, und einmal dynamisch verwendet, indem er gemäß des Verarbeitungsmodus vorwärtsgerichtete und rückgekoppelte Netzwerke unterscheidet.
Zu den Optimierungsverfahren in Neuronalen Netzen und deren Zielsetzungen siehe Gliederungspunkt B. 4.4.1..
Zur geschichtlichen Entwicklung des Backpropagation-Lernalgorithmus siehe [WERB94], [ZEID90, 67], [BEAL90, 68].
Die Bezeichnung w in Gleichung F.9 steht folglich für ein einzelnes Gewicht. 7 Dieses Verfahren wird in SENNV0.9™ als VarioEta-Lernalgorithmus bezeichnet [SENN95].
Siehe auch die im Zusammenhang mit der Approximationstheorie in diesem Gliederungspunkt dargestellten Erläuterungen.
Auf den Sachverhalt der Approximation eines bedingten Erwartungswertes wird im Rahmen der Diskussion bzgl. Erwartungswert- versus Verteilungsprognosen in Gliederungspunkt B. 3.1. nochmals eingegangen. Die Implikation der Annahme E[e|x] = 0 für die Verteilungsprognose wird dabei näher erläutert.
So werden im einzelnen spezifisch parametrisierte einfache lineare Perceptrons (Perceptrons bestehen im Unterschied zu Multilayer Perceptrons lediglich aus einer Input und einer Output Schicht) als uni- oder multivariate lineare Regressionsmodelle, einfache nichtlineare Perceptrons als logistische Regressionsmodelle, das Functional Link-Netzwerk [PA089] als polynomials Regressionsmodell und das Multilayer Perceptron als uni- oder multivariates Regressionsmodell, etc. interpretiert [SARL94].
In [GRAJ595] wird ähnlich differenziert, indem bestimmte Netzausprägungen als Synonyme für logistische Regressionsmodelle und für flexiblere nichtparametrische Modelle, wie Generalized Additive Models oder Projection-Pursuit Regression Models, dargestellt werden. Zu den Modellen der nichtparametrischen Regression und Klassifikation siehe auch [HAST95].
Zu der Verwandschaft zwischen Neuronalen Netzen und der Diskriminanzanalyse in der Schätzung von a posteriori Wahrscheinlichkeiten siehe auch Gliederungspunkt B. 3.3..
Rights and permissions
Copyright information
© 1997 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Baun, S. (1997). Grundlagen Neuronaler Netze. In: Verteilungsprognose für den Deutschen Aktienindex. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-09110-3_4
Download citation
DOI: https://doi.org/10.1007/978-3-663-09110-3_4
Publisher Name: Deutscher Universitätsverlag, Wiesbaden
Print ISBN: 978-3-8244-6475-3
Online ISBN: 978-3-663-09110-3
eBook Packages: Springer Book Archive