Skip to main content

Klassische neuronale Netze und ihre Anwendung

  • Conference paper
Datamining und Computational Finance

Part of the book series: Wirtschaftswissenschaftliche Beiträge ((WIRTSCH.BEITR.,volume 174))

  • 722 Accesses

Zusammenfassung

Dieser Beitrag gibt einen ersten überblick über klassische neuronale Netze. Im ersten Abschnitt wird die grundlegende Motivation vorgestellt, sich überhaupt mit neuronalen Netzen zu beschäftigen. Ein überblick über die Typenvielfalt neuronaler Netze zeigt, daß es „das“ neuronale Netz nicht gibt. Aus diesem Grund beschränken sich die nachfolgenden Darstellungen auf die Familie der Perceptrons, welche mit ihren wesent-lichen Vertretern (Single-Layer, Multi-Layer und Recurrent Perceptron) im zweiten Ab-schnitt betrachtet wird. Neuronale Netze dieses Typs lassen sich als eine Art „verallgemei-nertes Regressionsmodell“ interpretieren. Ihr Einsatz beim konkreten Modellentwurf erfor-dert daher dieselben Sorgfaltsprinzipien, wie sie beim Arbeiten mit Regressionsmodellen beachtet werden sollten. Das Finden der „optimalen“ Netzwerkarchitektur markiert einen zentralen Schritt der ModelIierung mit Perceptrons. Im dritten Abschnitt geht es zunächst um eine intuitive Charakterisierung, was denn unter „optimaler Netzwerkarchitektur“ zu verstehen ist. Der vierte Abschnitt beschäftigt sich mit ausgewäWten Problemfeldern bei der Entwicklung von Perceptron-basierten Modellen. Als wesentliche Problemfelder wer-den hier die geeignete Auswahl der FeWerfunktion, Optimierungsverfahren zur Koeffizien-tenschätzung, die Problematik des „Overfitting“, die Optimierung der Verbindungsstruktur und unterstützende Maßnahmen zur Modellentwicklung angesprochen. Der fünfte Ab-schnitt gibt einen kurzen überblick über verschiedene Anwendungsmöglichkeiten mit Schwerpunkt in der Finanzwirtschaft. ScWießlich faßt der sechste Abschnitt die Darstellun-gen zusammen und versucht, diese zu einer „Quintessenz“ zu verdichten.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 34.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 48.27
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Ackley, D.E., Hinton, G.E., Sejnowski, T.J. (1985): `A learning algorithm for Boltzmann machines’, Cognitive Science, 9, S. 147–169, Nachdruck in Neurocomputing, Foundations of Research (Hrsg. J. A. Anderson und E. Rosenfeld), Cambridge, MA (Third printing 1989), S. 638–649.

    Google Scholar 

  2. Almeida, L. B. (1987): `A Learning Rule for Asynchronous Perceptrons with Fedback in a Combinatorial Environment’IEEE First International Conference on Neural Networks San DiegoVol. II, S. 609–618.

    Google Scholar 

  3. Almeida, L. B. (1988): `Backpropagation in Perceptrons with Feedback’Neural Computers(Hrsg. R. Eckmiller und Ch. von der Malsburg), Berlin, S. 199–208.

    Google Scholar 

  4. Almeida, L.B. (1989): `Backpropagation in non-feedforward networks’Neural Computing Architectures The design of brain-like machines (Ed. I. Aleksander), London, S. 74–91.

    Google Scholar 

  5. Anders, U. (1995):Neuronale Netze in der Ökonometrie ¡ª Die Entmythologisierung ihrer AnwendungenZentrum fir Europäische Wirtschaftsforschung GmbH, Discussion Paper No. 95–26, Mannheim.

    Google Scholar 

  6. Brock, W.A., Dechert, W. D., Scheinkman, J. A. (1987): ATest for Independence Based on the Correlation DimensionWorking Paper, Department of Economics University of Wisconsin, University of Houston and University of Chicago.

    Google Scholar 

  7. Caruana, R. (1993): `Multitask Learning: A Knowledge-Based Source of Inductive Bias’Proceedings of the 10` h International Conference on Machine LearningAmherst, S. 41–48.

    Google Scholar 

  8. Caruana, R. (1995): `Learning Many Related Tasks at the Same Time with Backpropagation’Advances in Neural Information Processing SystemsVol 7.S. 656–664.

    Google Scholar 

  9. Fang, Y., Sejnowski, T. J. (1990): `Faster Learning for Dynamic Recurrent Backpropagation’Neural Computation2, S. 270–273.

    Article  Google Scholar 

  10. Finnoff, W., Hergert, F., Zimmermann, H.G. (1993):Neuronale Lernverfahren mit variabler SchrittweiteArbeitspapier, Siemens AG, Zentrale Forschungs-und Entwicklungsabteilung, München.

    Google Scholar 

  11. Finnoff, W., Zimmermann, H.G. (1992):Detecting Structure in Small Datasets by Network Fitting under Complexity ConstraintsSiemens AG, Corporate Research and Development, ZFE IS INF 24, Otto-Hahn-Ring 6, München.

    Google Scholar 

  12. Geman, S., Bienenstock, E., Doursat, R. (1992): `Neural Networks and the Bias/Variance Dilemma’Neural Computation4, S. 1–58.

    Article  Google Scholar 

  13. Hanson, S.J., Pratt, L.Y. (1989): `Comparing biases for minimal network construction with back-propagation’, Advances in Neural Information Processing I (Ed. D.S. Touretzky), San Mateo, S. 177–185.

    Google Scholar 

  14. Hecht-Nilson, R. (1987): `Counterpropagation Networks’Proceedings of the International Conference on Neural Networks San DiegoJune 1987, Vol. II, S. 19–32.

    Google Scholar 

  15. Hecht-Nilson, R. (1987a): `Counterpropagation Networks’Applied OpticsVol. 26, No. 23 December 1987, S. 4979–4984.

    Google Scholar 

  16. Hertz, J., Krogh, A., Palmer, R.G. (1991):Introduction to the Theory of Neural ComputationRedwood City, CA.

    Google Scholar 

  17. .Hinton, G.E., Sejnowski, T. (1986): `Learning and Relearning in Boltzmann Machines’Parallel Distributed Processing: Explorations in the Microstructure of Cognition Volume I Foundations(Hrsg. D.E. Rumelhart, J.L. McClelland, and the PDP Research Group), Cambridge, MA, S. 282–317.

    Google Scholar 

  18. Hopfield, J.J. (1982): `Neural networks and physical systems with emergent collective computational abilities’Proceedings of the National Academy of Sciences79, S. 2554–2558.

    Article  Google Scholar 

  19. Hopfield, J.J. (1984): `Neurons with graded response have collective computational properties like those of two-state neurons’Proceedings of the National Academy of Sciences81, S. 3088–3092.

    Article  Google Scholar 

  20. Hornik K. (1991): `Approximation Capabilities of Multilayer Feedforward Networks’Neural NetworksVol. 4, S. 251–257.

    Article  Google Scholar 

  21. Hornik K., Stinchcombe M., White, H. (1989): `Multilayer Feedforward Networks are Universal Approximators’Neural NetworksVol. 2, S. 359–366.

    Article  Google Scholar 

  22. Kerling, M. (1996): `Corporate Distress Diagnosis - An International Comparision’Neural Networks in Financial Engineering(Hrsg. A.-P. Refenes., Y. Abu-Mostafa, J. Moody und A. Weigend), Singapore, S. 407–422.

    Google Scholar 

  23. Kerling, M. (1998):Moderne Konzepte der Finanzanalyse - Markthypothesen Renditegenerierungsprozesse und ModellierungswerkzeugeBad Soden/Ts.

    Google Scholar 

  24. Kerling, M., Poddig, Th. (1994): ‘Klassifikation von Unternehmen mittels KNN’Neuronale Netzwerke in der Ökonomie(Hrsg. H. Rehkugler und H. G. Zimmermann), München, S. 427–490.

    Google Scholar 

  25. Kohonen, T. (1981): `Automatic Formations of Topological Maps in a Self-Organizing System’Proceedings of the 2nd Scandinavian Conference on Image Analysis(Hrsg. E. Oja und O. Simula), S. 214–220.

    Google Scholar 

  26. Kohonen, T. (1982): `Clustering, Taxonomy and Topological Maps of Patterns’Proceedings of the sixth International Conference on Pattern Recognition Silver Spring MD (IEEE Computer Society), S. 114–128.

    Google Scholar 

  27. Kohonen, T. (1982a): `A Simple Paradigm for the Self-Organisation of Structured Feature Maps, Competition and Cooperation in Neural Nets’Lecture Notes in Biomathematics(Hrsg. S. Amari und M.A. Arbib), Vol. 45, Berlin, S. 248–266.

    Article  Google Scholar 

  28. Kohonen, T. (1986):Learning Vector Quantization for Pattern RecognitionTech. Rep. No. TKK-F-A601, Helsinki University of Technology, Finnland.

    Google Scholar 

  29. Lee, T.-H., White, H., Granger, C. W. J. (1993): `Testing for neglected nonlinearity in time series models: A comparison of neural network methods and alternative tests’Journal of Econometrics56, S. 269–290.

    Article  Google Scholar 

  30. Masters, T. (1993):Practical Neural Network Recipes in C++Boston.

    Google Scholar 

  31. Minsky, M., Papert, S. (1988):Perceptrons An Introduction to Computational GeometryExpanded Edition, 2nd printing, Cambridge, MA.

    Google Scholar 

  32. Moody, J.E., Utans, J. (1992): `Principled Architecture Selection for Neural Networks: Application to Corporate Bond Rating Prediction’Advances in Neural Information Processing Systems 4(Hrsg. J.E. Moody, S.J. Hanson und R.P. Lippmann), San Mateo, CA, S. 683–690.

    Google Scholar 

  33. Moody, J., Utans, J. (1995): `Architecture Selection Strategies for Neural Networks: Application to Corporate Bond Rating Prediction’Neural Networks in the Capital Markets(Hrsg. A.-P. Refenes), Chichester, S. 277–300.

    Google Scholar 

  34. Neuneier, R., Tresp, V. (1994): `Radiale Basisfunktionen, Dichteschätzungen und Neuro-Fuzzy’Neuronale Netzwerke in der Ökonomie(Hrsg. H. Rehkugler und H.G. Zimmermann), München, S. 89–130.

    Google Scholar 

  35. Neuneier, R., Zimmermann, H. G. (1998): `How To Train Neural Networks’, Neural Networks: Tricks of the Trade (Hrsg. G. B. Orr und K.-R. Müller), Berlin, S. 373–423.

    Google Scholar 

  36. Pi., H. (1993):,Dependency Analysis and Neural Network Modeling of Currency Exchange Rates’Proceedings of the First International Workshop on Neural Networks in the Capital MarketsLondon.

    Google Scholar 

  37. Pi, H., Peterson, C. (1994): `Finding the Embedding Dimension and Variable Dependencies in Time Series’Neural Computation6, S. 509–520.

    Article  Google Scholar 

  38. Pineda, F.J. (1987): `Generalization of Back-Propagation to Recurrent Neural Networks’Physical Review Letters59, S. 2229–2232.

    Article  Google Scholar 

  39. Pineda, F.J. (1988): `Dynamics and Architecture for Neural Computation’Journal of Complexity4, S. 216–245.

    Google Scholar 

  40. Pineda, F.J. (1989): `Recurrent Back-Propagation and the Dynamical Approach to Adaptive Neural Computation’Neural Computation 1 S. 161–172.

    Article  Google Scholar 

  41. Poddig, Th. (1992):Künstliche Intelligenz und EntscheidungstheorieWiesbaden.

    Google Scholar 

  42. Poddig, Th. (1994): `Ein Jackknife-Ansatz zur Strukturextraktion in MultilayerPerceptrons bei kleinen Datenmengen’Künstliche Intelligenz in der Finanzberatung(Hrsg. S. Kim und Ch. Weinhardt), Wiesbaden, S. 333–345.

    Google Scholar 

  43. Poddig, Th. (1994a): `Mittelfristige Zinsprognosen mittels KNN und ökonometrischer Verfahren - Eine Fallstudie über den Umgang mit kleinen Datenmengen -’Neuronale Netzwerke in der Ökonomie(Hrsg. H. Rehkugler und H. G. Zimmermann), München, S. 209–289.

    Google Scholar 

  44. Poddig, Th. (1996): Analyse und Prognose von Finanzmärkten, Bad Soden

    Google Scholar 

  45. Poddig, Th. (1999):Handbuch KursprognoseBad Soden/Ts.

    Google Scholar 

  46. Poddig, Th., Huber, C. (1998): `Renditeprognosen mit Neuronalen Netzen’Handbuch Portfoliomanagement(Hrsg. J. M. Kleeberg und H. Rehkugler), Bad Soden/Ts., S. 349–384.

    Google Scholar 

  47. Poddig, Th., Möller, I., Petersmeier, K. (1999): `Analysis of non-linear dependencies using the 7t-test’, erscheint in:Eufit 99 7` h European Conference on Intelligent Techniques and Soft Computing(Hrsg. H.-J. Zimmermann).

    Google Scholar 

  48. Refenes, A.-P. (1995): `Methods for Optimal Network Design’Neural Networks in the Capital Markets(Hrsg. A.-P. Refenes), Chichester, S. 33–54.

    Google Scholar 

  49. Rehkugler, H., Kerling, M. (1995): `Einsatz Neuronaler Netze für Analyse-und Prognose-Zwecke’Betriebswirtschaftliche Forschung und PraxisHeft 3, S. 306–324.

    Google Scholar 

  50. Rehkugler, H., Poddig, Th. (1998):Bilanzanalyse4. Auflage, München.

    Google Scholar 

  51. Rohwer, R., Forrest, B. (1987): `Training Time-Dependence in Neural Networks’IEEE First International Conference on Neural Networks San DiegoVol. II, S. 701–708.

    Google Scholar 

  52. Rosenblatt, F. (1958): `The perceptrons: a probabilistic model for information storage and organization in the brain’Psychological Review65, S. 386–408.

    Article  Google Scholar 

  53. Rumelhart, D.E., Hinton, G.E., Williams, R.J. (1986): `Learning Internal Representations by Error Propagation’Parallel Distributed Processing: Explorations in the Microstructure of Cognition Volume I Foundations (Hrsg. D.E. Rumelhart, J.L. McClelland, and the PDP Research Group), Cambridge, MA S. 318–362.

    Google Scholar 

  54. Specht, D.F. (1988): `Probabalistic Neural Network for Classification, Mapping, or Associative Memory’Proceedings of the IEEE International Conference on Neural NetworksVol. 1, S. I-525 - I-532

    Article  Google Scholar 

  55. Specht, D.F. (1990): Probabilistic Neural NetworksNeural NetworksVol. 3, S. 109–118.

    Article  Google Scholar 

  56. Specht, D.F. (1991): `A General Regression Neural Network’IEEE Transactions on Neural NetworksVol. 2, No. 6, S. 568–576.

    Article  Google Scholar 

  57. Teräsvirta, T., Lin, C.-F., Granger, C. W. J. (1993): `Power of the neural network linearity test’Journal of Time Series AnalysisVol. 14, No. 2, S. 209 ¡ª 220.

    Article  Google Scholar 

  58. Utans, J., Moody, J. E. (1991): `Selecting neural network architectures via prediction risk: Application to corporate bond rating prediction’Proceedings of the First International Conference on Artificial Intelligence Applications on Wall StreetLos Alamitos, CA.

    Google Scholar 

  59. Wasserman, P.D. (1993):Advanced Methods in Neural ComputingNew York.

    Google Scholar 

  60. Weigend, A.S., Huberman, B.A., Rumelhart, D.E. (1990):Predicting the future: A connectionist approachStanford-PDP-90–01, PARC-SS1–90-20, Stanford University, Standford, CA.

    Google Scholar 

  61. Weigend, A.S., Rumelhart, D.E., Huberman, B.A. (1991): `Generalization by Weight-Elimination with Application to Forecasting’Advances in Neural Information Processing III(Hrsg. R.P. Lippmann und J. Moody), San Mateo, S. 875–882.

    Google Scholar 

  62. Weigend, A. S., Zimmermann, H. G., Neuneier, R. (1996): `Clearning’Neural Networks in Financial Engineering(Hrsg. A.-P. Refenes., Y. Abu-Mostafa, J. Moody und A. Weigend), Singapore, S. 511–521.

    Google Scholar 

  63. Wittner, B.S., Denker, J.S. (1988): `Strategies for Teaching Layered Networks Classification Tasks’Neural Information Processing Systems(Hrsg. D.Z. Anderson), New York, S. 850–859.

    Google Scholar 

  64. White, H. (1989): `An additional hidden unit test for neglected nonlinearity in multilayer feedforward networks’Proceedings of the International Joint Conference on Neural NetworksWashington D.C., Vol. II, S. 451¡ª 455.

    Google Scholar 

  65. Zimmermann, H.G. (1994): ‘Neuronale Netze als Entscheidungskalkül - Grundlagen und ihre ökonometrische Realisierung -’, inNeuronale Netzwerke in der Ökonomie(Hrsg. H. Rehkugler und H.G. Zimmermann), München, S. 1–87.

    Google Scholar 

  66. Zimmermann, H.G., Hergert, F., Finnoff, W. (1992):Neuron Pruning and Merging Methods for Use in Conjuction with Weight EliminationSiemens AG, Corporate Research and Development, ZFE IS INF 23, Otto-Hahn-Ring 6, München.

    Google Scholar 

  67. Zimmermann, H.G., Weigend, A. S. (1996):Finding Nonlinear Structure Using An Interaction LayerArbeitspapier, Siemens AG, Zentrale Forschungs-und Entwicklungsabteilung, München.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2000 Springer-Verlag Berlin Heidelberg

About this paper

Cite this paper

Poddig, T. (2000). Klassische neuronale Netze und ihre Anwendung. In: Bol, G., Nakhaeizadeh, G., Vollmer, KH. (eds) Datamining und Computational Finance. Wirtschaftswissenschaftliche Beiträge, vol 174. Physica, Heidelberg. https://doi.org/10.1007/978-3-642-57656-0_9

Download citation

  • DOI: https://doi.org/10.1007/978-3-642-57656-0_9

  • Publisher Name: Physica, Heidelberg

  • Print ISBN: 978-3-7908-1284-8

  • Online ISBN: 978-3-642-57656-0

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics