Zusammenfassung
Dieser Beitrag gibt einen ersten überblick über klassische neuronale Netze. Im ersten Abschnitt wird die grundlegende Motivation vorgestellt, sich überhaupt mit neuronalen Netzen zu beschäftigen. Ein überblick über die Typenvielfalt neuronaler Netze zeigt, daß es „das“ neuronale Netz nicht gibt. Aus diesem Grund beschränken sich die nachfolgenden Darstellungen auf die Familie der Perceptrons, welche mit ihren wesent-lichen Vertretern (Single-Layer, Multi-Layer und Recurrent Perceptron) im zweiten Ab-schnitt betrachtet wird. Neuronale Netze dieses Typs lassen sich als eine Art „verallgemei-nertes Regressionsmodell“ interpretieren. Ihr Einsatz beim konkreten Modellentwurf erfor-dert daher dieselben Sorgfaltsprinzipien, wie sie beim Arbeiten mit Regressionsmodellen beachtet werden sollten. Das Finden der „optimalen“ Netzwerkarchitektur markiert einen zentralen Schritt der ModelIierung mit Perceptrons. Im dritten Abschnitt geht es zunächst um eine intuitive Charakterisierung, was denn unter „optimaler Netzwerkarchitektur“ zu verstehen ist. Der vierte Abschnitt beschäftigt sich mit ausgewäWten Problemfeldern bei der Entwicklung von Perceptron-basierten Modellen. Als wesentliche Problemfelder wer-den hier die geeignete Auswahl der FeWerfunktion, Optimierungsverfahren zur Koeffizien-tenschätzung, die Problematik des „Overfitting“, die Optimierung der Verbindungsstruktur und unterstützende Maßnahmen zur Modellentwicklung angesprochen. Der fünfte Ab-schnitt gibt einen kurzen überblick über verschiedene Anwendungsmöglichkeiten mit Schwerpunkt in der Finanzwirtschaft. ScWießlich faßt der sechste Abschnitt die Darstellun-gen zusammen und versucht, diese zu einer „Quintessenz“ zu verdichten.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Ackley, D.E., Hinton, G.E., Sejnowski, T.J. (1985): `A learning algorithm for Boltzmann machines’, Cognitive Science, 9, S. 147–169, Nachdruck in Neurocomputing, Foundations of Research (Hrsg. J. A. Anderson und E. Rosenfeld), Cambridge, MA (Third printing 1989), S. 638–649.
Almeida, L. B. (1987): `A Learning Rule for Asynchronous Perceptrons with Fedback in a Combinatorial Environment’IEEE First International Conference on Neural Networks San DiegoVol. II, S. 609–618.
Almeida, L. B. (1988): `Backpropagation in Perceptrons with Feedback’Neural Computers(Hrsg. R. Eckmiller und Ch. von der Malsburg), Berlin, S. 199–208.
Almeida, L.B. (1989): `Backpropagation in non-feedforward networks’Neural Computing Architectures The design of brain-like machines (Ed. I. Aleksander), London, S. 74–91.
Anders, U. (1995):Neuronale Netze in der Ökonometrie ¡ª Die Entmythologisierung ihrer AnwendungenZentrum fir Europäische Wirtschaftsforschung GmbH, Discussion Paper No. 95–26, Mannheim.
Brock, W.A., Dechert, W. D., Scheinkman, J. A. (1987): ATest for Independence Based on the Correlation DimensionWorking Paper, Department of Economics University of Wisconsin, University of Houston and University of Chicago.
Caruana, R. (1993): `Multitask Learning: A Knowledge-Based Source of Inductive Bias’Proceedings of the 10` h International Conference on Machine LearningAmherst, S. 41–48.
Caruana, R. (1995): `Learning Many Related Tasks at the Same Time with Backpropagation’Advances in Neural Information Processing SystemsVol 7.S. 656–664.
Fang, Y., Sejnowski, T. J. (1990): `Faster Learning for Dynamic Recurrent Backpropagation’Neural Computation2, S. 270–273.
Finnoff, W., Hergert, F., Zimmermann, H.G. (1993):Neuronale Lernverfahren mit variabler SchrittweiteArbeitspapier, Siemens AG, Zentrale Forschungs-und Entwicklungsabteilung, München.
Finnoff, W., Zimmermann, H.G. (1992):Detecting Structure in Small Datasets by Network Fitting under Complexity ConstraintsSiemens AG, Corporate Research and Development, ZFE IS INF 24, Otto-Hahn-Ring 6, München.
Geman, S., Bienenstock, E., Doursat, R. (1992): `Neural Networks and the Bias/Variance Dilemma’Neural Computation4, S. 1–58.
Hanson, S.J., Pratt, L.Y. (1989): `Comparing biases for minimal network construction with back-propagation’, Advances in Neural Information Processing I (Ed. D.S. Touretzky), San Mateo, S. 177–185.
Hecht-Nilson, R. (1987): `Counterpropagation Networks’Proceedings of the International Conference on Neural Networks San DiegoJune 1987, Vol. II, S. 19–32.
Hecht-Nilson, R. (1987a): `Counterpropagation Networks’Applied OpticsVol. 26, No. 23 December 1987, S. 4979–4984.
Hertz, J., Krogh, A., Palmer, R.G. (1991):Introduction to the Theory of Neural ComputationRedwood City, CA.
.Hinton, G.E., Sejnowski, T. (1986): `Learning and Relearning in Boltzmann Machines’Parallel Distributed Processing: Explorations in the Microstructure of Cognition Volume I Foundations(Hrsg. D.E. Rumelhart, J.L. McClelland, and the PDP Research Group), Cambridge, MA, S. 282–317.
Hopfield, J.J. (1982): `Neural networks and physical systems with emergent collective computational abilities’Proceedings of the National Academy of Sciences79, S. 2554–2558.
Hopfield, J.J. (1984): `Neurons with graded response have collective computational properties like those of two-state neurons’Proceedings of the National Academy of Sciences81, S. 3088–3092.
Hornik K. (1991): `Approximation Capabilities of Multilayer Feedforward Networks’Neural NetworksVol. 4, S. 251–257.
Hornik K., Stinchcombe M., White, H. (1989): `Multilayer Feedforward Networks are Universal Approximators’Neural NetworksVol. 2, S. 359–366.
Kerling, M. (1996): `Corporate Distress Diagnosis - An International Comparision’Neural Networks in Financial Engineering(Hrsg. A.-P. Refenes., Y. Abu-Mostafa, J. Moody und A. Weigend), Singapore, S. 407–422.
Kerling, M. (1998):Moderne Konzepte der Finanzanalyse - Markthypothesen Renditegenerierungsprozesse und ModellierungswerkzeugeBad Soden/Ts.
Kerling, M., Poddig, Th. (1994): ‘Klassifikation von Unternehmen mittels KNN’Neuronale Netzwerke in der Ökonomie(Hrsg. H. Rehkugler und H. G. Zimmermann), München, S. 427–490.
Kohonen, T. (1981): `Automatic Formations of Topological Maps in a Self-Organizing System’Proceedings of the 2nd Scandinavian Conference on Image Analysis(Hrsg. E. Oja und O. Simula), S. 214–220.
Kohonen, T. (1982): `Clustering, Taxonomy and Topological Maps of Patterns’Proceedings of the sixth International Conference on Pattern Recognition Silver Spring MD (IEEE Computer Society), S. 114–128.
Kohonen, T. (1982a): `A Simple Paradigm for the Self-Organisation of Structured Feature Maps, Competition and Cooperation in Neural Nets’Lecture Notes in Biomathematics(Hrsg. S. Amari und M.A. Arbib), Vol. 45, Berlin, S. 248–266.
Kohonen, T. (1986):Learning Vector Quantization for Pattern RecognitionTech. Rep. No. TKK-F-A601, Helsinki University of Technology, Finnland.
Lee, T.-H., White, H., Granger, C. W. J. (1993): `Testing for neglected nonlinearity in time series models: A comparison of neural network methods and alternative tests’Journal of Econometrics56, S. 269–290.
Masters, T. (1993):Practical Neural Network Recipes in C++Boston.
Minsky, M., Papert, S. (1988):Perceptrons An Introduction to Computational GeometryExpanded Edition, 2nd printing, Cambridge, MA.
Moody, J.E., Utans, J. (1992): `Principled Architecture Selection for Neural Networks: Application to Corporate Bond Rating Prediction’Advances in Neural Information Processing Systems 4(Hrsg. J.E. Moody, S.J. Hanson und R.P. Lippmann), San Mateo, CA, S. 683–690.
Moody, J., Utans, J. (1995): `Architecture Selection Strategies for Neural Networks: Application to Corporate Bond Rating Prediction’Neural Networks in the Capital Markets(Hrsg. A.-P. Refenes), Chichester, S. 277–300.
Neuneier, R., Tresp, V. (1994): `Radiale Basisfunktionen, Dichteschätzungen und Neuro-Fuzzy’Neuronale Netzwerke in der Ökonomie(Hrsg. H. Rehkugler und H.G. Zimmermann), München, S. 89–130.
Neuneier, R., Zimmermann, H. G. (1998): `How To Train Neural Networks’, Neural Networks: Tricks of the Trade (Hrsg. G. B. Orr und K.-R. Müller), Berlin, S. 373–423.
Pi., H. (1993):,Dependency Analysis and Neural Network Modeling of Currency Exchange Rates’Proceedings of the First International Workshop on Neural Networks in the Capital MarketsLondon.
Pi, H., Peterson, C. (1994): `Finding the Embedding Dimension and Variable Dependencies in Time Series’Neural Computation6, S. 509–520.
Pineda, F.J. (1987): `Generalization of Back-Propagation to Recurrent Neural Networks’Physical Review Letters59, S. 2229–2232.
Pineda, F.J. (1988): `Dynamics and Architecture for Neural Computation’Journal of Complexity4, S. 216–245.
Pineda, F.J. (1989): `Recurrent Back-Propagation and the Dynamical Approach to Adaptive Neural Computation’Neural Computation 1 S. 161–172.
Poddig, Th. (1992):Künstliche Intelligenz und EntscheidungstheorieWiesbaden.
Poddig, Th. (1994): `Ein Jackknife-Ansatz zur Strukturextraktion in MultilayerPerceptrons bei kleinen Datenmengen’Künstliche Intelligenz in der Finanzberatung(Hrsg. S. Kim und Ch. Weinhardt), Wiesbaden, S. 333–345.
Poddig, Th. (1994a): `Mittelfristige Zinsprognosen mittels KNN und ökonometrischer Verfahren - Eine Fallstudie über den Umgang mit kleinen Datenmengen -’Neuronale Netzwerke in der Ökonomie(Hrsg. H. Rehkugler und H. G. Zimmermann), München, S. 209–289.
Poddig, Th. (1996): Analyse und Prognose von Finanzmärkten, Bad Soden
Poddig, Th. (1999):Handbuch KursprognoseBad Soden/Ts.
Poddig, Th., Huber, C. (1998): `Renditeprognosen mit Neuronalen Netzen’Handbuch Portfoliomanagement(Hrsg. J. M. Kleeberg und H. Rehkugler), Bad Soden/Ts., S. 349–384.
Poddig, Th., Möller, I., Petersmeier, K. (1999): `Analysis of non-linear dependencies using the 7t-test’, erscheint in:Eufit 99 7` h European Conference on Intelligent Techniques and Soft Computing(Hrsg. H.-J. Zimmermann).
Refenes, A.-P. (1995): `Methods for Optimal Network Design’Neural Networks in the Capital Markets(Hrsg. A.-P. Refenes), Chichester, S. 33–54.
Rehkugler, H., Kerling, M. (1995): `Einsatz Neuronaler Netze für Analyse-und Prognose-Zwecke’Betriebswirtschaftliche Forschung und PraxisHeft 3, S. 306–324.
Rehkugler, H., Poddig, Th. (1998):Bilanzanalyse4. Auflage, München.
Rohwer, R., Forrest, B. (1987): `Training Time-Dependence in Neural Networks’IEEE First International Conference on Neural Networks San DiegoVol. II, S. 701–708.
Rosenblatt, F. (1958): `The perceptrons: a probabilistic model for information storage and organization in the brain’Psychological Review65, S. 386–408.
Rumelhart, D.E., Hinton, G.E., Williams, R.J. (1986): `Learning Internal Representations by Error Propagation’Parallel Distributed Processing: Explorations in the Microstructure of Cognition Volume I Foundations (Hrsg. D.E. Rumelhart, J.L. McClelland, and the PDP Research Group), Cambridge, MA S. 318–362.
Specht, D.F. (1988): `Probabalistic Neural Network for Classification, Mapping, or Associative Memory’Proceedings of the IEEE International Conference on Neural NetworksVol. 1, S. I-525 - I-532
Specht, D.F. (1990): Probabilistic Neural NetworksNeural NetworksVol. 3, S. 109–118.
Specht, D.F. (1991): `A General Regression Neural Network’IEEE Transactions on Neural NetworksVol. 2, No. 6, S. 568–576.
Teräsvirta, T., Lin, C.-F., Granger, C. W. J. (1993): `Power of the neural network linearity test’Journal of Time Series AnalysisVol. 14, No. 2, S. 209 ¡ª 220.
Utans, J., Moody, J. E. (1991): `Selecting neural network architectures via prediction risk: Application to corporate bond rating prediction’Proceedings of the First International Conference on Artificial Intelligence Applications on Wall StreetLos Alamitos, CA.
Wasserman, P.D. (1993):Advanced Methods in Neural ComputingNew York.
Weigend, A.S., Huberman, B.A., Rumelhart, D.E. (1990):Predicting the future: A connectionist approachStanford-PDP-90–01, PARC-SS1–90-20, Stanford University, Standford, CA.
Weigend, A.S., Rumelhart, D.E., Huberman, B.A. (1991): `Generalization by Weight-Elimination with Application to Forecasting’Advances in Neural Information Processing III(Hrsg. R.P. Lippmann und J. Moody), San Mateo, S. 875–882.
Weigend, A. S., Zimmermann, H. G., Neuneier, R. (1996): `Clearning’Neural Networks in Financial Engineering(Hrsg. A.-P. Refenes., Y. Abu-Mostafa, J. Moody und A. Weigend), Singapore, S. 511–521.
Wittner, B.S., Denker, J.S. (1988): `Strategies for Teaching Layered Networks Classification Tasks’Neural Information Processing Systems(Hrsg. D.Z. Anderson), New York, S. 850–859.
White, H. (1989): `An additional hidden unit test for neglected nonlinearity in multilayer feedforward networks’Proceedings of the International Joint Conference on Neural NetworksWashington D.C., Vol. II, S. 451¡ª 455.
Zimmermann, H.G. (1994): ‘Neuronale Netze als Entscheidungskalkül - Grundlagen und ihre ökonometrische Realisierung -’, inNeuronale Netzwerke in der Ökonomie(Hrsg. H. Rehkugler und H.G. Zimmermann), München, S. 1–87.
Zimmermann, H.G., Hergert, F., Finnoff, W. (1992):Neuron Pruning and Merging Methods for Use in Conjuction with Weight EliminationSiemens AG, Corporate Research and Development, ZFE IS INF 23, Otto-Hahn-Ring 6, München.
Zimmermann, H.G., Weigend, A. S. (1996):Finding Nonlinear Structure Using An Interaction LayerArbeitspapier, Siemens AG, Zentrale Forschungs-und Entwicklungsabteilung, München.
Author information
Authors and Affiliations
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2000 Springer-Verlag Berlin Heidelberg
About this paper
Cite this paper
Poddig, T. (2000). Klassische neuronale Netze und ihre Anwendung. In: Bol, G., Nakhaeizadeh, G., Vollmer, KH. (eds) Datamining und Computational Finance. Wirtschaftswissenschaftliche Beiträge, vol 174. Physica, Heidelberg. https://doi.org/10.1007/978-3-642-57656-0_9
Download citation
DOI: https://doi.org/10.1007/978-3-642-57656-0_9
Publisher Name: Physica, Heidelberg
Print ISBN: 978-3-7908-1284-8
Online ISBN: 978-3-642-57656-0
eBook Packages: Springer Book Archive