Zusammenfassung
Wie bereits in der Einleitung angedeutet, stellen neuronale Netze den Versuch dar, die prinzipielle Funktionsweise des menschlichen Gehirns auf dem Computer abzubilden. Dies setzt natürlich als notwendige Bedingung eine detaillierte Kenntnis der Funktionsweise des Gehirns voraus. Obwohl noch viele (vermutlich die überwiegende Anzahl) der Eigenschaften des menschlichen Gehirns wenig oder gar nicht erforscht sind, konnten im vergangenen Jahrhundert bahnbrechende Erfolge in der Hirnforschung erzielt werden. Bereits zu Beginn des Jahrhunderts stellte der spanische Physiologe Santiago Ramón Y Cajal die These auf,1 daß das Gehirn aus Verarbeitungseinheiten — den Neuronen — besteht, die hierarchisch aufgebaut sind. Auf ihn lassen sich auch erste reale Abbildungen der Struktur des menschlichen Gehirns zurückführen. Wie Lernprozesse im menschlichen Gehirn möglicherweise ablaufen könnten, wurde erst in den achtziger Jahren durch die Erforschung der NMDA-Rezeptoren erkannt.2
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Notes
Die genaue Jahresangabe ist in der Literatur uneinheitlich datiert. Rojas (vgl. Rojas [176] (1996), S. 26) gibt für die These das Jahr 1901 an, während Haykin sie auf das Jahr 1911 datiert (vgl. Haykin [76] (1999), S. 6).
Vgl. Rojas [176] (1996), S. 26. Auf die Bedeutung NMDA-Rezeptoren wird weiter unten noch eingegangen werden.
Die dargestellte Hierarchie schließt rekurrente Strukturen nicht aus, denn der Output eines Neurons kann direkt oder indirekt zum Input eines seiner vorgelagerten Neuronen werden.
Vgl. für eine schematische Darstellung Brause [21] (1995), S. 17 ff.
Vgl. Haykin [76] (1999), S. 7.
Dieser verzweigten Struktur und ihrer Ähnlichkeit mit einem Baum verdanken die Dendriten auch ihren Namen (vgl. Haykin [76] (1999), S. 7).
Vgl. Rojas [176] (1996), S. 19 f.
Elektrisch positiv oder negativ geladenen Atome oder Atomgruppen (vgl. NEUMÜLLER [147] (1977), S. 287 ff.)
Vgl. NEUMÜLLER [147] (1977), S. 466 ff.
Diese Ionen-Pumpen sind dicht über die Zellmembran verteilt. Auf einen Quadratmikrometer kommen bis zu 200 Mio. dieser Pumpen. Damit hat selbst ein kleines Neuron etwa 1 Mio. Ionen-Pumpen, die insgesamt bis zu 300 Mio. Ionen pro Sekunde verarbeiten (vgl. Zell [245] (1997), S. 39).
Vgl. Zell [245] (1997), S. 40 ff.
Vgl. Rojas [176] (1996), S. 16.
Zum Vergleich: handelsübliche Personalcomputer erreichen Taktungen von 400MHz und mehr. Sie sind damit, was die Taktung angeht, mehr als eine Million mal schneller als das Gehirn.
Vgl. Zell [245] (1997), S. 49.
Rojas [176] (1996), S. 16.
Vgl. Zell [245] (1997), S. 45.
Dies bedeutet, daß die Spannung in der Zelle dem Betrage nach sinken muß: von-70mV auf unter-60mV.
Vgl. Rojas [176] (1996), S. 19.
Vgl. Zell [245] (1997), S. 44 f.
Vgl. Haykin [76] (1999), S. 7.
Vgl. Zell [245] (1997), S. 49.
Vgl. sowie Pytlik [164] (1995), S. 147 und Wiedmann/Jung [242] (1995), S. 25 und Zell [245] (1997), S. 35. Einige spezielle Neuronen verfugen sogar über bis zu 150 000 Synapsen (vgl. Zell [245] (1997), S. 36).
Haykin [76] (1999), S. 6.
Dader Terminus neuronal bereits zum Ausdruck bringt, daß es sich nur um ein dem Gehirn ähnliches Modell handelt (vgl. Brause [21] (1995), S. 38 f.), wird im folgenden nur von neuronalen Netzen anstelle von künstlichen neuronalen Netzen gesprochen.
Daß diese dann computerintern wiederum in elektrische Impulse umgewandelt werden, wird hier vernachlässigt. Auch wenn dies den Computer der Funktionsweise des menschlichen Gehirns noch näher bringen würde.
Vgl. Wiedmann/Jung [243] (1994), S. 12.
Mccord/Illingworth [133] (1990), S. 49.
Vgl. Haykin [76] (1999), S. 15 ff.
Die einzelnen Aktivierungsfunktionen und die Gewichtungen werden dazu in einer komplexeren Funktion zusammengefaßt. Vgl. für ein Beispiel Abschnitt 3.1, S. 22 ff.
Vg. Rojas [176] (1996), S. 26.
Vgl. Rojas [176] (1996), S. 21.
Dieser Argumentation entspricht die Hebb-Lernregel für neuronale Netze (vg. Hebb [78] (1949)), welche unterstellt, daß die Änderung der Effizienz der Synapsen (die Änderung der Gewichte) von der Aktivität der beteiligten Neuronen abhängt (vgl. Brause [21] (1995), S. 79 ff. sowie Rojas [176] (1996), S. 21).
Vgl. Schiffmann [190] (1994), S. 24.
Vgl. dafür Haykin [76] (1999), S. 34 ff. sowie ausführlicher Lawrence [116] (1994), S. 1 ff.
Vgl. z.B. Anders [4] (1997), Brause [21] (1995), Haykin [76] (1999) oder Rojas [176] (1996).
Es wurde bereits im Zusammenhang mit Abbildung 2, S. 10 angesprochen, daß ein neuronales Netz als mathematische Funktion betrachtet werden kann. Vgl. für ein Beispiel Abschnitt 3.1, S. 22 ff.
Diese Abgrenzung ist z.B. kompatibel mit der von Anders [4] (1997), S. 2 f. verwendeten.
Vgl. Rojas [176] (1996), S. 5 ff.
Vgl. Rojas [176] (1996), S. 24.
Vgl. z.B. Haykin [76] (1999), S. 21 f.
Die Aktivierungsfunktion entspricht dann der Einheitsfunktion, f (x) = x.
Vgl. für eine grafische Darstellung Uhlig [226] (1995), Abbildung 4, S. 19 (dort wird der effektive Eingang als Eingabewert bezeichnet).
Vgl. Zell [245] (1997), Abbildung 5.5, S. 76.
Wie eng der Zusammenhang zwischen dem Anwendungsgebiet eines neuronalen Netzes und der gewählten Aktivierungsfunktion ist, zeigt das Beispiel von diskreten, binären Aktivierungsfunktionen. Ist dieser Funktionstyp gewählt, so kann ein neuronales Netz auch nur binäre Signale ausgeben. Bezogen auf eine Prognose bedeutet dies, daß ein solches Netz zwar steigt/fällt Signale geben kann, aber keinen konkreten prognostizierten Wert.
Einige Autoren benutzen auch den Terminus Feedback (vgl. z.B. Mccord/Illingworth [133] (1990), S. 50 ff.
Vgl. Haykin [76] (1999), S. 18 ff.
Vgl. Zell [245] (1997), S. 88.
Vgl. Zell [245] (1997), S. 78.
Vgl. Zell [245] (1997), S. 78 f.
Vgl. Zell [245] (1997), S. 155 ff.
Vgl. Zell [245] (1997), S. 93 aber auch Haykin [76] (1999), S. 63 f. sowie Rojas [176] (1996), S. 74 f.
Vgl. Zell [245] (1997), S. 93 f.
Vgl. Zell [245] (1997), S. 95.
Vgl. Rojas [176] (1996), S. 99 sowie für die Umsetzung Haykin [76] (1999), S. 443 ff.
Vgl. für eine exakte Definition des Multi-Layer-Perceptron Nauck/Klawonn/Kruse [145] (1996), S. 72 ff.
Es wird eine sigmoide Aktivierungsfunktion verwendet werden (vgl. S. 23).
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 2004 Springer-Verlag Berlin Heidelberg
About this chapter
Cite this chapter
Lange, C. (2004). Ursprung und Aufbau neuronaler Netze. In: Neuronale Netze in der wirtschaftswissenschaftlichen Prognose und Modellgenerierung. Wirtschaftswissenschaftliche Beiträge, vol 192. Physica, Heidelberg. https://doi.org/10.1007/978-3-7908-2696-8_2
Download citation
DOI: https://doi.org/10.1007/978-3-7908-2696-8_2
Publisher Name: Physica, Heidelberg
Print ISBN: 978-3-7908-0059-3
Online ISBN: 978-3-7908-2696-8
eBook Packages: Springer Book Archive