Skip to main content

Grundlagen Neuronaler Netze

  • Chapter
PPS mit Neuronalen Netzen
  • 118 Accesses

Zusammenfassung

Seit den Anfängen der Computertechnologie werden erhebliche Anstrengungen unternommen, um Computersysteme mit den gleichen Fähigkeiten wie das menschliche Gehirn auszustatten, mit sogenannter „Künstlicher Intelligenz“ (KI). Ein erster Versuch der KI, die Einschränkungen herkömmlicher Datenverarbeitung zu überwinden, sind die Expertensysteme. Sie deklarieren explizit heuristische Elemente des Problemlösungswissens, die dann mit Hilfe von Inferenzmechanismen auf konkrete Probleme angewendet werden, wobei nach anfänglichen Erfolgsberichten oder gar der euphorischen Proklamation einer Computerrevolution223, eine stagnierende Entwicklung zu konstatieren ist224. Durch die Tatsachen, daß ein Großteil des Expertenwissens nicht in expliziter Form vorliegt und daß alles benötigte Wissen von Hand umständlich eingeben werden muß sowie durch die weiterhin vorhandenen Unterschiede zu menschlichen Expertenleistungen, bleibt das Einsatzgebiet der Expertensysteme auf eng eingegrenzte, einfach strukturierte Probleme beschränkt225.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 49.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 44.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Zu einer kritischen Auseinandersetzung mit den unrealistischen Erwartungen an Expertensysteme vgl. Zelewski, S. (Leistungspotential, 1986), S. 22 ff.

    Google Scholar 

  2. Teilweise wird sogar von einer „Krise des herkömmlichen Ansatzes der KI“ gesprochen (Blien, IL; Lindner, H.-G. (Neuronale Netze, 1993), S. 499).

    Google Scholar 

  3. Einen umfassenden Überblick über bisher realisierte Anwendungen geben Mertens, P.; Borkowski, V.; Geis, W. (Expertensystem-Anwendungen, 1993), S. 25 ff.

    Google Scholar 

  4. Gründe für die geringe Durchsetzung von Expertensystemen finden sich z.B. bei Zelewski, S. (Leistungspotential, 1986), S. 891 ff.

    Google Scholar 

  5. Vgl. Kurbel, K.; Pietsch, W. (Beurteilung, 1991), S. 357.

    Google Scholar 

  6. Neumann, J. v. (Rechenmaschine, 1980), S. 15 ff.

    Google Scholar 

  7. Vgl. McCulloch, W.; Pitts, W. (Logical Calculus, 1943), S. 115 ff.

    Google Scholar 

  8. Vgl. Rosenblatt, F. (Probabilistic Model, 1958), S. 386 ff.

    Google Scholar 

  9. Vgl. Minsky, M.; Papert, S. (Perceptions, 1969), S. 21 ff.

    Google Scholar 

  10. Dabei sind insbesondere die Arbeiten von Hopfield (vgl. Hopfield, J.J. (Neural Networks, 1982), S. 2554 ff.

    Google Scholar 

  11. Hopfield, J.J. (Neurons, 1984), S. 3088 ff.

    Google Scholar 

  12. über assoziative Speicher und die Lösung von Optimierungsaufgaben mit speziellen rückgekoppelten Netzen sowie die Veröffentlichung von Rumelhart, McClelland und der PDP-Research Group (vgl. Rumelhart, D.E.; McClelland, J.L.; PDP Research Group (Hrsg.) (Parallel Distributed Processing, 1986)) mit dem Schwerpunkt auf Fehlerrückfuhrungs-Netzen (backpropagation networks) zu nennen.

    Google Scholar 

  13. Dabei ist die starke Zunahme der Rechenleistung und der Speicherfähigkeit von Datenverarbeitungssystemen seit den 60er Jahren sowie die Entwicklung massiv paralleler Rechnerarchitekturen gemeint.

    Google Scholar 

  14. Ausfuhrliche Darstellungen der Entwicklungsgeschichte Neuronaler Netze finden sich z.B. bei Cowan, J.D. (Neural networks, 1990), S. 828 ff.

    Google Scholar 

  15. Dreyfuss, H. (Suche, 1992), S. 55 ff.

    Google Scholar 

  16. Harston, C.T.; Maren, A.J. (History, 1990), S. 13 ff.

    Google Scholar 

  17. Ritter, H.; Martinez, T.; Schulten, K. (Neuronale Netze, 1990), S. 3 ff.

    Google Scholar 

  18. Simpson, P.K. (Neural Systems, 1990), S. 136 ff

    Google Scholar 

  19. Der Zusatz „Künstlich“ soll hierbei der Verdeutlichung des Unterschieds zu natürlichen vernetzten Nervenzellen dienen.

    Google Scholar 

  20. Vgl. Schocken, S.; Ariav, G. (Neural networks, 1994), S. 394.

    Google Scholar 

  21. Zell, A. (Simulation, 1994), S. 23 f.

    Google Scholar 

  22. Zu den Grundlagen der Fuzzy-Logik vgl. Zadeh, L.A. (Fuzzy Sets, 1965), S. 338 ff.

    Google Scholar 

  23. Zimmermann, H.-J. (Entscheidungsprobleme, 1979), S. 72 ff.

    Google Scholar 

  24. Eine Übersicht der Einsatzgebiete findet sich z.B. bei Altrock, C. v. (Fuzzy Logic, 1995), S. 32 ff.

    Google Scholar 

  25. Zimmermann, H.-J. (Einsatzgebiete, 1995), S. 7 ff.

    Google Scholar 

  26. Vgl. z.B. Nauck, D.; Klawonn, F.; Kruse, R. (Neuronale Netze, 1994), S. 233 ff.

    Google Scholar 

  27. Schaefer, J. (Lernverfahren, 1994), S. 409 ff.

    Google Scholar 

  28. Schoder, D.; Nücke, H. (Neuronale Netze, 1995), S. 61 ff.

    Google Scholar 

  29. Seraphin, M. (Neuronale Netze, 1994), S. 186 ff.

    Google Scholar 

  30. Vgl. z.B. Nauck, D.; Klawonn, F.; Kruse, R. (Neuronale Netze, 1994), S. 179 ff.

    Google Scholar 

  31. Yoon, Y.; Guimares, T.; Swales, G.S. (neural networks, 1994), S. 497 ff.

    Google Scholar 

  32. Vgl. Lieven, K.; Weber, R. (Datenanalyse, 1994), S. 312.

    Google Scholar 

  33. Fernandez, B.R. (Performance analysis, 1994), S. 304.

    Google Scholar 

  34. Vgl. Brause, R. (Neuronale Netze, 1995), S. 38 ff.

    Google Scholar 

  35. Köhle, M. (Neurale Netze, 1990), S. 10 f.

    Google Scholar 

  36. Kratzer, K.-P. (Neuronale Netze, 1993), S. 12.

    Google Scholar 

  37. Maren, A.J. (Introduction, 1990), S. 9.

    Google Scholar 

  38. Einige Autoren fassen auch die Eingangs- und die Aktivierungsfunktion zu einer Funktion zusammen, die erst dann als Aktivierungsfunktion bezeichnet wird, andere bezeichnen die gesamte Signalverarbeitung innerhalb eines Neurons als Aktivierungs- oder Transferfunktion (vgl. z.B. Adam, D.; Hering, T.; Welker, M. (Künstliche Intelligenz, 1995), S. 508.

    Google Scholar 

  39. Zell, A. (Simulation, 1994), S. 83). Eine derartige Vorgehensweise erschwert jedoch die Implementierung Neuronaler Netze, so daß die vorgenommene Aufteilung in Einzelfunktionen beibehalten werden soll.

    Google Scholar 

  40. Vgl. z.B. Hamilton, P. (Künstliche neuronale Netze, 1993), S. 107 ff.

    Google Scholar 

  41. Kratzer, K.-P. (Neuronale Netze, 1993), S. 24 f.

    Google Scholar 

  42. Schöneburg, E.; Hansen, N.; Gawelczyk, A. (Neuronale Netzwerke, 1990), S. 50 f.

    Google Scholar 

  43. Simpson, P.K. (Foundations, 1992), S. 7 f.

    Google Scholar 

  44. Vgl. z.B. Dorffner, G. (Konnektionismus, 1991), S. 75 f.

    Google Scholar 

  45. Hoffmann, N. (Handbuch, 1993), S. 26 f.

    Google Scholar 

  46. Kratzer, K.-P. (Neuronale Netze, 1993), S. 25.

    Google Scholar 

  47. Schöneburg, E.; Hansen, N.; Gawelczyk, A. (Neuronale Netzwerke, 1990), S. 71.

    Google Scholar 

  48. Vgl. Dorffner, G. (Konnektionismus, 1991), S. 50.

    Google Scholar 

  49. Grauel, A. (Neuronale Netze, 1992), S. 26.

    Google Scholar 

  50. Kratzer, K.-P. (Neuronale Netze, 1993), S. 68 ff.

    Google Scholar 

  51. Schumann, M. (Neuronale Netze, 1991), S. 25 f.

    Google Scholar 

  52. Vgl. Zell, A. (Simulation, 1994), S. 78 f.

    Google Scholar 

  53. Vgl. Rehkugler, H.; Poddig, T. (Anwendungsperspektiven, 1992), S. 51.

    Google Scholar 

  54. Vgl. z.B. Hoffmann, N. (Handbuch, 1993), S. 92.

    Google Scholar 

  55. Zell, A. (Simulation, 1994), S. 198.

    Google Scholar 

  56. Vgl. Abschnitt 3.6.3.

    Google Scholar 

  57. Vgl. Brause, R. (Neuronale Netze, 1995), S. 58 f.

    Google Scholar 

  58. Dorffner, G. (Konnektionismus, 1991), S. 36.

    Google Scholar 

  59. Seraphin, M. (Neuronale Netze, 1994), S. 30 ff.

    Google Scholar 

  60. Zimmermann, H.G. (Entscheidungskalkül, 1994), S. 74 ff.

    Google Scholar 

  61. Vgl. Faißt, J. (Hierarchische Planung, 1993), S. 226 ff.

    Google Scholar 

  62. Rumelhart, D.E.; Widrow, B.; Lehr, M.A. (Basic Ideas, 1994), S. 90 f.

    Google Scholar 

  63. Zimmermann, H.G. (Entscheidungskalkül, 1994), S. 58 ff.

    Google Scholar 

  64. Vgl. Dorffner, G. (Konnektionismus, 1991), S. 31 ff.

    Google Scholar 

  65. Köhle, M. (Neurale Netze, 1990), S. 84 ff.

    Google Scholar 

  66. Einige Autoren nennen an dieser Stelle als drittes Lernverfahren noch verstärkendes Lernen (reinforcement learning) (vgl. z.B. Mechler, B. (Entscheidungsunterstützungs-systeme, 1994), S. 76). Dabei wird der gewünschte Output nicht exakt angegeben, sondern lediglich ein skalares Gütemaß der Leistung (z.B. gut/schlecht). Letztlich handelt es sich hierbei jedoch nur um eine andere Form des überwachten Lernens, so daß dieser Unterteilung im weiteren nicht gefolgt werden soll.

    Google Scholar 

  67. Dies entspricht in der Wirkungsweise den Clusteralgorithmen oder den Vektorquantisierungsverfahren (vgl. Lieven, K.; Weber, R. (Datenanalyse, 1994), S. 314).

    Google Scholar 

  68. Vgl. Hebb, D.O. (Behavior, 1949), S. 62.

    Google Scholar 

  69. Vgl. Faißt, J. (Hierarchische Planung, 1993), S. 115.

    Google Scholar 

  70. Schöneburg, E.; Hansen, N.; Ga-welczyk, A. (Neuronale Netzwerke, 1990), S. 46 f.

    Google Scholar 

  71. Vgl. Dorffner, G. (Konnektionismus, 1991), S. 113 ff.

    Google Scholar 

  72. Vgl. Widrow, B.; Hoff, M.E. (Circuits, 1960), S. 96 ff.

    Google Scholar 

  73. Vgl. Grauel, A. (Neuronale Netze, 1992), S. 36.

    Google Scholar 

  74. Köhle, M. (Neurale Netze, 1990), S. 87.

    Google Scholar 

  75. Vgl. Abschnitt 3.6.3.

    Google Scholar 

  76. Zu einer empirischen Untersuchung, die dies belegt vgl. Taylor, J.G. (Promise, 1993), S. 105 f.

    Google Scholar 

  77. Vertiefende Darstellungen einer größeren Anzahl an Netztypen finden sich z.B. bei Brause, R. (Neuronale Netze, 1995), S. 89 ff.

    Google Scholar 

  78. Hecht-Nielsen, R. (Neurocomputing, 1990), S. 79 ff.

    Google Scholar 

  79. Zell, A. (Simulation, 1994), S. 97 ff.

    Google Scholar 

  80. Zur generellen Struktur eines derartigen Netzes vgl. Abbildung 12.

    Google Scholar 

  81. Vgl. Minsky, M.; Papert, S. (Perceptrons, 1969), S. 227 ff.

    Google Scholar 

  82. Vgl. Werbos, P.J. (regression, 1974).

    Google Scholar 

  83. zitiert nach Zell, A. (Simulation, 1994), S. 30.

    Google Scholar 

  84. Rumelhart, D.E.; Hinton, G.E.; McClelland, J.L. (Framework, 1986), S. 45 ff.

    Google Scholar 

  85. Gleichwohl ist das Backpropagation-Netz ein feed-forward-Netz, da keine rückläufigen Verbindungen bestehen, d.h., der Signalfluß ist vorwärtsgerichtet und nur der Fehler wird rückgeführt.

    Google Scholar 

  86. Vgl. z.B. McClelland, J.L.; Rumelhart, D.E. (Explorations, 1988), S. 121 ff.

    Google Scholar 

  87. Zell, A. (Simulation, 1994), S. 108 ff.

    Google Scholar 

  88. Vgl. Köhle, M. (Neurale Netze, 1990), S. 91.

    Google Scholar 

  89. Vgl. Dorffner, G. (Konnektionismus, 1991), S. 123 f.

    Google Scholar 

  90. Vgl. Kratzer, K.-P. (Neuronale Netze, 1993), S. 81.

    Google Scholar 

  91. Schöneburg, E.; Hansen, N.; Gawelczyk, A. (Neuronale Netzwerke, 1990), S. 95 f.

    Google Scholar 

  92. Vgl. Hopfield, J.J. (Neural Networks, 1982), S. 2554 ff.

    Google Scholar 

  93. Vgl. Rigoll, G. (Neuronale Netze, 1994), S. 139.

    Google Scholar 

  94. Einige Autoren sprechen auch von einer einschichtigen Architektur (vgl. z.B. Hoffmann, N. (Handbuch, 1993), S. 92.

    Google Scholar 

  95. Lawrence, J. (Neuronale Netze, 1992), S. 99).

    Google Scholar 

  96. Vgl. Lohrbach, T. (Einsatz, 1994), S. 64 f.

    Google Scholar 

  97. Vgl. Hopfield, J.J. (Neurons, 1984), S. 3088 ff.

    Google Scholar 

  98. Vgl. Hopfield, J.J.; Tank, D.W. (Computation, 1985), S. 141 ff.

    Google Scholar 

  99. Vgl. Kohonen, T. (Self-Organization, 1989), S. 119 ff.

    Google Scholar 

  100. Kohonen, T. (Self-Organizing Maps, 1995), S. 77 ff.

    Google Scholar 

  101. Vgl. Ritter, H.; Martinez, T.; Schulten, K. (Neuronale Netze, 1990), S. 85 ff.

    Google Scholar 

  102. Weitere Ausführungen zur Verdeutlichung der biologischen Orientierung finden sich z.B. bei Kinnebrock, W. (Neuronale Netze, 1992), S. 77 f.

    Google Scholar 

  103. Kohonen, T. (Self-Organizing Map, 1993), S. 1152 ff.

    Google Scholar 

  104. Rojas, R. (Theorie, 1993), S. 340 ff.

    Google Scholar 

  105. Eine drei- oder höherdimensionale Anordnung ist zwar möglich, jedoch wird mit zunehmender Dimensionalität der Kohonen-Schicht die Interpretation der Abbildungsergebnisse schwieriger.

    Google Scholar 

  106. Vgl. Kohonen, T. (Self-Organization, 1989), S. 130.

    Google Scholar 

  107. Vgl. Kohonen, T. (Self-Organizing Maps, 1995), S. 79.

    Google Scholar 

  108. Vgl. Krause, C. (Kreditwürdigkeitsprüfung, 1993), S. 57 ff.

    Google Scholar 

  109. Rojas, R. (Theorie, 1993), S. 344.

    Google Scholar 

  110. Vgl. Köhle, M. (Neurale Netze, 1990), S. 114.

    Google Scholar 

  111. Lohrbach, T. (Einsatz, 1994), S. 37 f.

    Google Scholar 

  112. Vgl. z.B. Adam, D.; Hering, T.; Welker, M. (Künstliche Intelligenz, 1995), S. 591 f.

    Google Scholar 

  113. Harston, C.T. (Business, 1990), S. 391 ff.

    Google Scholar 

  114. Liegt keines dieser Merkmale vor, sind konventionelle Verfahren, wie z.B. statistische Methoden, Verfahren der kombinatorischen Optimierung oder Heuristiken, geeigneter, da sie mit deutlich geringerem Aufwand zu einer Lösung der Problemstellung führen (vgl. Becker, J. (Kalkulation, 1994), S. 167.

    Google Scholar 

  115. Steiner, M.; Wittkemper, H.-G. (Neuronale Netze, 1993), S. 461).

    Google Scholar 

  116. Vgl. Adam, D. (Produktions-Management, 1993), S. 7 ff.

    Google Scholar 

  117. Vgl. Becker, J. (Kalkulation, 1994), S. 162.

    Google Scholar 

  118. Vgl. Corsten, H.; May, C. (Unterstützungspotential, 1995), S. 45.

    Google Scholar 

  119. Zu der vorgenommenen Einteilung der Anwendungsfelder vgl. auch Becker, J.; Prischmann, M. (Anwendungen, 1992), S. 17 ff.

    Google Scholar 

  120. Faißt, J. (Hierarchische Planung, 1993), S. 217.

    Google Scholar 

  121. Vgl. Corsten, H.; May, C. (Unterstützungspotential, 1995), S. 48 f.

    Google Scholar 

  122. Vgl. z.B. Arizono, I.; Yamamoto, A.; Ohta, H. (Scheduling, 1992), S. 503 ff.

    Google Scholar 

  123. Foo, Y.-P.S.; Takefuji, Y. (Neural Networks, 1988), S. 341 ff.

    Google Scholar 

  124. Kurbel, K. (Maschinenbelegungsplanung, 1994), S. 55 ff.

    Google Scholar 

  125. Lohrbach, T. (Einsatz, 1994), S. 259 ff.

    Google Scholar 

  126. Zhou, D. et al. (Scheduling, 1991), S. 175 ff.

    Google Scholar 

  127. Vgl. Corsten, H.; May, C. (Unterstützungspotential, 1995), S. 49 ff.

    Google Scholar 

  128. Vgl. z.B. Füser, K. (Prognosequalität, 1994), S. 240 ff.

    Google Scholar 

  129. Hilhner, M.; Graf, J. (Aktienkursprognose, 1994), S. 149 ff.

    Google Scholar 

  130. Rehkugler, H.; Poddig, T. (Wechselkursprognosen, 1994), S. 1 ff.

    Google Scholar 

  131. Schumann, M.; Lohrbach, T. (Aktienkursprognose, 1994), S. 254 ff.

    Google Scholar 

  132. Wittkemper, H.-G. (Rendite- und Risikoschätzung, 1994), S. 92 ff.

    Google Scholar 

  133. Vgl. z.B. Baetge, J. et al. (Bonitätsbeurteilung, 1994), S. 337 ff.

    Google Scholar 

  134. Burger, A. (Klassifikation, 1994), S. 1165.

    Google Scholar 

  135. Erxleben, K. et al. (Klassifikation, 1992), S. 1237 ff.

    Google Scholar 

  136. Krause, C. (Kreditwürdigkeitsprüfung, 1993), S. 101 ff.

    Google Scholar 

  137. Pytlik, M. (Diskriminanzanalyse, 1995), S. 21 ff.

    Google Scholar 

  138. Vgl. Rojas, R. (Theorie, 1993), S. 24.

    Google Scholar 

  139. Vgl. Corsten, H.; May, C. (Unterstützungspotential, 1995), S. 51.

    Google Scholar 

  140. Vgl. Mechler, B. (Entscheidungsunterstützungssysteme, 1994), S. 79 ff.

    Google Scholar 

  141. Zell, A. (Simulation, 1994), S. 26 ff.

    Google Scholar 

  142. Vgl. Abschnitt 3.5.1.

    Google Scholar 

  143. Über die scheinbare Widersprüchlichkeit der Bezeichnung „unsicheres Wissen“ führt Spies aus: „... unsicheres Wissen [ist] keineswegs dasselbe wie Unsicherheit über ein Wissen ... “ (z.B. wenn eine Forschungsfrage noch offen ist), sondern vielmehr „... eine Unsicherheit, die im Wissen selbst liegt ... “ (Spies, M. (Unsicheres Wissen, 1993), S. 19).

    Google Scholar 

  144. Vgl. Steiner, M.; Wittkemper, H.-G. (Neuronale Netze, 1993), S. 460.

    Google Scholar 

  145. Vgl. Nauck, D.; Klawonn, F.; Kruse, R. (Neuronale Netze, 1994), S. 155 ff.

    Google Scholar 

  146. Vgl. Kurbel, K.; Pietsch, W. (Beurteilung, 1991), S. 360.

    Google Scholar 

  147. Vgl. Rehkugler, H.; Poddig, T. (Anwendungsperspektiven, 1992), S. 56 f.

    Google Scholar 

  148. Vgl. Kurbel, K.; Pietsch, W. (Beurteilung, 1991), S. 360.

    Google Scholar 

  149. Vgl. Rehkugler, H.; Poddig, T. (Neuronale Netze, 1991), S. 372.

    Google Scholar 

  150. Schumann, M. (Neuronale Netze, 1991), S. 38.

    Google Scholar 

  151. Vgl. Rückert, U.; Spaanenburg, L.; Anlauf, J. (Anwendungsstand, 1993), S. 416 f.

    Google Scholar 

  152. Vgl. Rückert, U.; Spaanenburg, L.; Anlauf, J. (Anwendungsstand, 1993), S. 417.

    Google Scholar 

  153. Vgl. Goser, K.; Ramacher, U. (Realisierung, 1992), S. 244 ff.

    Google Scholar 

  154. Einen Überblick über verfügbare Neuro-Hardware findet sich bei Zell, A. (Simulation, 1994), S. 451 ff.

    Google Scholar 

  155. Bei dieser Zahl bleibt die einigen Publikationen beigefügte Neuro-Software unberücksichtigt: z.B. in Bharath, R.; Drosen, J. (Neural Network, 1994).

    Google Scholar 

  156. Caudill, M.; Butler, C. (Neural Networks, 1992).

    Google Scholar 

  157. Hoffmann, N. (Simulation, 1992).

    Google Scholar 

  158. Seraphin, M. (Neuronale Netze, 1994).

    Google Scholar 

  159. Vgl. May, C. (Simulation, 1996), S. 45 f.

    Google Scholar 

  160. Zu einer differenzierten Darstellung vgl. Trauboth, H. (Software-Qualitätssicherung, 1993), S. 25 ff.

    Google Scholar 

  161. Einer Überblick möglicher Maßzahlen des Zeitverhaltens Neuronaler Netze gibt Zell, A. (Simulation, 1994), S. 414 f.

    Google Scholar 

  162. Vgl. Zell, A. (Simulation, 1994), S. 424 f.

    Google Scholar 

  163. Erste Ansätze um Leistungsmeßverfahren Neuronaler Netze vergleichbar zu machen finden sich bei Prechelt, L. (Benchmarking, 1994), S. 4 ff.

    Google Scholar 

  164. Vgl. Alba, E.; Aldana, J.F.; Troya, J.M. (Genetic Algorithms, 1993), S. 683 ff.

    Google Scholar 

  165. Schiffmann, W.; Joost, M.; Werner, R. (Performance Analysis, 1992), S. 13 ff.

    Google Scholar 

  166. Scholz, M. (Topologiegenerierung, 1995), S. 59 ff.

    Google Scholar 

  167. Wittkemper, H.-G. (Rendite- und Risikoschätzung, 1994), S. 66 ff.

    Google Scholar 

  168. Weitere Darstellungen von Neuro-Softwaresysteinen finden sich z.B. bei Berns, K.; Kolb, T. (Neuronale Netze, 1994), S. 124 ff.

    Google Scholar 

  169. Dengel, A.; Lutzy, O. (Comparative Study, 1993), S. 43 ff.

    Google Scholar 

  170. Huber, C; Geiger, H.; Nucke, H. (Anwendungsstand, 1993), S. 370 ff.

    Google Scholar 

  171. James, H. (Software, 1994), S. 181 ff.

    Google Scholar 

  172. Jurik, M. (software, 1993), S. 36 ff.

    Google Scholar 

  173. Miller, R.K.; Walker, T.C.; Ryan, A.M. (Applications, 1990), S. 241 ff.

    Google Scholar 

  174. Namyslik, F. (Tools, 1991), S. 60 ff.

    Google Scholar 

  175. Thuy, N.H.C. (Marktübersicht, 1992), S. 33 ff.

    Google Scholar 

  176. Zell, A. (Simulation, 1994), S. 349 ff.

    Google Scholar 

  177. Zeitpunkt der Untersuchung: Juni 1995.

    Google Scholar 

  178. Dabei ist es durchaus denkbar, daß sich im Laufe der Entwicklung des Neuronalen Netzes herausstellt, daß die gewählte technologische Realisierung für die gegebene Fragestellung ungeeignet ist, beispielsweise weil die Geschwindigkeit einer Software-Realisierung nicht ausreicht oder weil ein mit der gewählten Software oder Hardware nicht realisierbarer Netztyp erforderlich ist.

    Google Scholar 

  179. Vgl. Abschnitt 3.6.2.4.

    Google Scholar 

  180. Vgl. z.B. Weigend, A.S.; Huberman, B.A.; Rumelhart, D.E. (Predicting the Future, 1990), S. 196.

    Google Scholar 

  181. Vgl. Baum, E.B.; Haussler, D. (Generalization, 1989), S. 151 ff.

    Google Scholar 

  182. Vgl. z.B. Fausett, L.V. (Fundamentals, 1994), S. 298.

    Google Scholar 

  183. Vgl. Kratzer, K.-P. (Neuronale Netze, 1993), S. 167 f.

    Google Scholar 

  184. Vgl. z.B. Kratzer, K.-P. (Neuronale Netze, 1993), S. 154.

    Google Scholar 

  185. Lawrence, J. (Data Preparation, 1991), S. 39.

    Google Scholar 

  186. Ein Grund für die Verwendung solcher Intervalle kann beispielsweise sein, daß die Einoder Ausgabedaten, die zum Training verwendet werden, nicht in genauerer Form vorliegen oder daß die Genauigkeit solcher Intervalle für den vorgesehenen Zweck ausreichend ist.

    Google Scholar 

  187. Vgl. Fausett, L.V. (Fundamentals, 1994), S. 299.

    Google Scholar 

  188. Vgl. Kratzer, K.-P. (Neuronale Netze, 1993), S. 155 ff.

    Google Scholar 

  189. Vgl. Mechler, B. (Entscheidungsunterstützungssysteme, 1994), S. 81.

    Google Scholar 

  190. Vgl. Kratzer, K.-P. (Neuronale Netze, 1993), S. 163.

    Google Scholar 

  191. Vgl. Abbildung 13. Der Grund für den verbreiteten Einsatz der logistischen Funktion ist nicht die Ähnlichkeit mit der Aktivierungsfunktion natürlicher Neuronen, wie Adam, Hering und Welker (vgl. Adam, D.; Hering, T.; Welker, M. (Künstliche Intelligenz, 1995), S. 508) vermuten (natürliche Nervenzellen verfügen über nichtkontinuierliche Aktivierungsfunktionen nach dem Alles-oder-Nichts-Prinzip), sondern ist nach Meinung des Autors vielmehr auf die einfache Differenzierbarkeit und die mit der Nichtlinearität verbundenen Eigenschaften der logistischen Funktion zurückzuführen.

    Google Scholar 

  192. Vgl. Stein, R. (Selecting, 1993), S. 46.

    Google Scholar 

  193. Vgl. Schwarze, J. (Statistik, 1992), S. 103 ff.

    Google Scholar 

  194. Vgl. Stein, R. (Preprocessing, 1993), S. 32.

    Google Scholar 

  195. Vgl. Rumelhart, D.E.; Widrow, B.; Lehr, M.A. (Basic Ideas, 1994), S. 90 f.

    Google Scholar 

  196. Wittkemper, H.-G. (Rendite- und Risikoschätzung, 1994), S. 52 ff.

    Google Scholar 

  197. Zimmermann, H.G. (Entscheidungskalkül, 1994), S. 58 ff.

    Google Scholar 

  198. Eine Lernepoche bezeichnet den einmaligen Durchlauf aller Datensätze durch ein Neuronales Netz (vgl. Zell, A. (Simulation, 1994), S. 414).

    Google Scholar 

  199. Vgl. Wittkemper, H.-G. (Rendite- und Risikoschätzung, 1994), S. 54.

    Google Scholar 

  200. Aufstellungen von Aufgabenbereichen und dafür prinzipiell geeigneten Netztypen finden sich z.B. bei Berns, K.; Kolb, T. (Neuronale Netze, 1994), S. 49 ff.

    Google Scholar 

  201. Jones, D.; Franklin, S.P. (Choosing, 1990), S. 221 ff.

    Google Scholar 

  202. Kemke, C. (Konnektionismus, 1988), S. 155 ff.

    Google Scholar 

  203. Krause, C. (Kreditwürdigkeitsprüfung, 1993), S. 60 ff.

    Google Scholar 

  204. Rigoll, G. (Neuronale Netze, 1994), S. 231 ff.

    Google Scholar 

  205. Vgl. z.B. Rigoll, G. (Neuronale Netze, 1994), S. 45.

    Google Scholar 

  206. Zell, A. (Simulation, 1994), S. 90.

    Google Scholar 

  207. Die Anzahl der Neuronen in der Ein- und Ausgabeschicht wird implizit bereits im Rahmen der Datenaufbereitung festgelegt.

    Google Scholar 

  208. Vgl. z.B. Hornik, K. (Approximation Capabilities, 1991), S. 251 ff.

    Google Scholar 

  209. Hornik, K.; Stinchcombe, M.; White, H. (Universal Approximators, 1989), S. 359 ff.

    Google Scholar 

  210. Zu dieser Kritik vgl. Zell, A. (Simulation, 1994), S. 559 f.

    Google Scholar 

  211. Vgl. Hecht-Nielsen, R. (Neurocomputing, 1990), S. 133.

    Google Scholar 

  212. Fausett, L.V. (Fundamentals, 1994), S. 299.

    Google Scholar 

  213. Maren, A.J.; Jones, D.; Franklin, S. (Configuring, 1990), S. 238 f.

    Google Scholar 

  214. Vgl. Maren, A.J.; Jones, D.; Franklin, S. (Configuring, 1990), S. 242.

    Google Scholar 

  215. Vgl. Bailey, D.; Thompson, D. (Applications, 1990), S. 46.

    Google Scholar 

  216. Vgl. Rigoll, G. (Neuronale Netze, 1994), S. 259 f.

    Google Scholar 

  217. Vgl. Kratzer, K.-P. (Neuronale Netze, 1993), S. 148.

    Google Scholar 

  218. Zu einer Übersicht vgl. Zell, A. (Simulation, 1994), S. 115 ff.

    Google Scholar 

  219. Vgl. Köhle, M. (Neurale Netze, 1990), S. 95 ff..

    Google Scholar 

  220. Krause, C. (Kreditwürdigkeitsprüfung, 1993), S. 155 ff.

    Google Scholar 

  221. Rigoll, G. (Neuronale Netze, 1994), S. 262 f.

    Google Scholar 

  222. Zell, A. (Simulation, 1994) S. 113 f.

    Google Scholar 

  223. Vgl. Zell, A. (Simulation, 1994), S. 114.

    Google Scholar 

  224. Vgl. Köhle, M. (Neurale Netze, 1990), S. 97.

    Google Scholar 

  225. Vgl. Fausett, L.V. (Fundamentals, 1994), S. 296 f.

    Google Scholar 

  226. Problematisch an dieser Vorgehensweise ist der Umstand, daß auch nach einem längeren Ansteigen des Fehlers der Testdaten dieser wieder fallen kann. Damit verbleiben nur die zwei Alternativen, entweder den Zeitpunkt, an dem der Lernvorgang abgebrochen werden soll, anhand des Fehlerverlaufs (z.B. der Steigung) zu „erahnen“ oder den Lernvorgang so lange fortzusetzen, bis mit an Sicherheit grenzender Wahrscheinlichkeit ausgeschlossen werden kann, daß der Fehler der Testdaten nochmals sinkt.

    Google Scholar 

  227. Vgl. Hecht-Nielsen, R. (Neurocomputing, 1990), S. 117.

    Google Scholar 

  228. Krause, C. (Kreditwürdigkeitsprüfung, 1993), S. 126.

    Google Scholar 

  229. Vgl. Seraphin, M. (Neuronale Netze, 1994), S. 96 ff.

    Google Scholar 

  230. Das Oszillieren eines Neuronalen Netzes während der Lernphase läßt sich anschaulich als ständiges Springen von der einen Seite eines Tales des Fehlergebirges zur anderen Seite interpretieren (vgl. Zell, A. (Simulation, 1994), S. 112).

    Google Scholar 

  231. Vgl. z.B. Füser, K. (Prognosequalität, 1994), S. 255.

    Google Scholar 

  232. Wittkemper, H.-G. (Rendite- und Risikoschätzung, 1994), S. 42.

    Google Scholar 

  233. Vgl. Schwarze, J. (Statistik, 1992), S. 147.

    Google Scholar 

  234. Vgl. Schwarze, J. (Statistik, 1992), S. 153 f.

    Google Scholar 

  235. Vgl. Abschnit 4.7.2.2

    Google Scholar 

Download references

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 1996 Betriebswirtschaftlicher Verlag Dr. Th. Gabler GmbH, Wiesbaden

About this chapter

Cite this chapter

May, C. (1996). Grundlagen Neuronaler Netze. In: PPS mit Neuronalen Netzen. Deutscher Universitätsverlag. https://doi.org/10.1007/978-3-322-97729-8_3

Download citation

  • DOI: https://doi.org/10.1007/978-3-322-97729-8_3

  • Publisher Name: Deutscher Universitätsverlag

  • Print ISBN: 978-3-8244-6370-1

  • Online ISBN: 978-3-322-97729-8

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics