Zusammenfassung
Seit den Anfängen der Computertechnologie werden erhebliche Anstrengungen unternommen, um Computersysteme mit den gleichen Fähigkeiten wie das menschliche Gehirn auszustatten, mit sogenannter „Künstlicher Intelligenz“ (KI). Ein erster Versuch der KI, die Einschränkungen herkömmlicher Datenverarbeitung zu überwinden, sind die Expertensysteme. Sie deklarieren explizit heuristische Elemente des Problemlösungswissens, die dann mit Hilfe von Inferenzmechanismen auf konkrete Probleme angewendet werden, wobei nach anfänglichen Erfolgsberichten oder gar der euphorischen Proklamation einer Computerrevolution223, eine stagnierende Entwicklung zu konstatieren ist224. Durch die Tatsachen, daß ein Großteil des Expertenwissens nicht in expliziter Form vorliegt und daß alles benötigte Wissen von Hand umständlich eingeben werden muß sowie durch die weiterhin vorhandenen Unterschiede zu menschlichen Expertenleistungen, bleibt das Einsatzgebiet der Expertensysteme auf eng eingegrenzte, einfach strukturierte Probleme beschränkt225.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Zu einer kritischen Auseinandersetzung mit den unrealistischen Erwartungen an Expertensysteme vgl. Zelewski, S. (Leistungspotential, 1986), S. 22 ff.
Teilweise wird sogar von einer „Krise des herkömmlichen Ansatzes der KI“ gesprochen (Blien, IL; Lindner, H.-G. (Neuronale Netze, 1993), S. 499).
Einen umfassenden Überblick über bisher realisierte Anwendungen geben Mertens, P.; Borkowski, V.; Geis, W. (Expertensystem-Anwendungen, 1993), S. 25 ff.
Gründe für die geringe Durchsetzung von Expertensystemen finden sich z.B. bei Zelewski, S. (Leistungspotential, 1986), S. 891 ff.
Vgl. Kurbel, K.; Pietsch, W. (Beurteilung, 1991), S. 357.
Neumann, J. v. (Rechenmaschine, 1980), S. 15 ff.
Vgl. McCulloch, W.; Pitts, W. (Logical Calculus, 1943), S. 115 ff.
Vgl. Rosenblatt, F. (Probabilistic Model, 1958), S. 386 ff.
Vgl. Minsky, M.; Papert, S. (Perceptions, 1969), S. 21 ff.
Dabei sind insbesondere die Arbeiten von Hopfield (vgl. Hopfield, J.J. (Neural Networks, 1982), S. 2554 ff.
Hopfield, J.J. (Neurons, 1984), S. 3088 ff.
über assoziative Speicher und die Lösung von Optimierungsaufgaben mit speziellen rückgekoppelten Netzen sowie die Veröffentlichung von Rumelhart, McClelland und der PDP-Research Group (vgl. Rumelhart, D.E.; McClelland, J.L.; PDP Research Group (Hrsg.) (Parallel Distributed Processing, 1986)) mit dem Schwerpunkt auf Fehlerrückfuhrungs-Netzen (backpropagation networks) zu nennen.
Dabei ist die starke Zunahme der Rechenleistung und der Speicherfähigkeit von Datenverarbeitungssystemen seit den 60er Jahren sowie die Entwicklung massiv paralleler Rechnerarchitekturen gemeint.
Ausfuhrliche Darstellungen der Entwicklungsgeschichte Neuronaler Netze finden sich z.B. bei Cowan, J.D. (Neural networks, 1990), S. 828 ff.
Dreyfuss, H. (Suche, 1992), S. 55 ff.
Harston, C.T.; Maren, A.J. (History, 1990), S. 13 ff.
Ritter, H.; Martinez, T.; Schulten, K. (Neuronale Netze, 1990), S. 3 ff.
Simpson, P.K. (Neural Systems, 1990), S. 136 ff
Der Zusatz „Künstlich“ soll hierbei der Verdeutlichung des Unterschieds zu natürlichen vernetzten Nervenzellen dienen.
Vgl. Schocken, S.; Ariav, G. (Neural networks, 1994), S. 394.
Zell, A. (Simulation, 1994), S. 23 f.
Zu den Grundlagen der Fuzzy-Logik vgl. Zadeh, L.A. (Fuzzy Sets, 1965), S. 338 ff.
Zimmermann, H.-J. (Entscheidungsprobleme, 1979), S. 72 ff.
Eine Übersicht der Einsatzgebiete findet sich z.B. bei Altrock, C. v. (Fuzzy Logic, 1995), S. 32 ff.
Zimmermann, H.-J. (Einsatzgebiete, 1995), S. 7 ff.
Vgl. z.B. Nauck, D.; Klawonn, F.; Kruse, R. (Neuronale Netze, 1994), S. 233 ff.
Schaefer, J. (Lernverfahren, 1994), S. 409 ff.
Schoder, D.; Nücke, H. (Neuronale Netze, 1995), S. 61 ff.
Seraphin, M. (Neuronale Netze, 1994), S. 186 ff.
Vgl. z.B. Nauck, D.; Klawonn, F.; Kruse, R. (Neuronale Netze, 1994), S. 179 ff.
Yoon, Y.; Guimares, T.; Swales, G.S. (neural networks, 1994), S. 497 ff.
Vgl. Lieven, K.; Weber, R. (Datenanalyse, 1994), S. 312.
Fernandez, B.R. (Performance analysis, 1994), S. 304.
Vgl. Brause, R. (Neuronale Netze, 1995), S. 38 ff.
Köhle, M. (Neurale Netze, 1990), S. 10 f.
Kratzer, K.-P. (Neuronale Netze, 1993), S. 12.
Maren, A.J. (Introduction, 1990), S. 9.
Einige Autoren fassen auch die Eingangs- und die Aktivierungsfunktion zu einer Funktion zusammen, die erst dann als Aktivierungsfunktion bezeichnet wird, andere bezeichnen die gesamte Signalverarbeitung innerhalb eines Neurons als Aktivierungs- oder Transferfunktion (vgl. z.B. Adam, D.; Hering, T.; Welker, M. (Künstliche Intelligenz, 1995), S. 508.
Zell, A. (Simulation, 1994), S. 83). Eine derartige Vorgehensweise erschwert jedoch die Implementierung Neuronaler Netze, so daß die vorgenommene Aufteilung in Einzelfunktionen beibehalten werden soll.
Vgl. z.B. Hamilton, P. (Künstliche neuronale Netze, 1993), S. 107 ff.
Kratzer, K.-P. (Neuronale Netze, 1993), S. 24 f.
Schöneburg, E.; Hansen, N.; Gawelczyk, A. (Neuronale Netzwerke, 1990), S. 50 f.
Simpson, P.K. (Foundations, 1992), S. 7 f.
Vgl. z.B. Dorffner, G. (Konnektionismus, 1991), S. 75 f.
Hoffmann, N. (Handbuch, 1993), S. 26 f.
Kratzer, K.-P. (Neuronale Netze, 1993), S. 25.
Schöneburg, E.; Hansen, N.; Gawelczyk, A. (Neuronale Netzwerke, 1990), S. 71.
Vgl. Dorffner, G. (Konnektionismus, 1991), S. 50.
Grauel, A. (Neuronale Netze, 1992), S. 26.
Kratzer, K.-P. (Neuronale Netze, 1993), S. 68 ff.
Schumann, M. (Neuronale Netze, 1991), S. 25 f.
Vgl. Zell, A. (Simulation, 1994), S. 78 f.
Vgl. Rehkugler, H.; Poddig, T. (Anwendungsperspektiven, 1992), S. 51.
Vgl. z.B. Hoffmann, N. (Handbuch, 1993), S. 92.
Zell, A. (Simulation, 1994), S. 198.
Vgl. Abschnitt 3.6.3.
Vgl. Brause, R. (Neuronale Netze, 1995), S. 58 f.
Dorffner, G. (Konnektionismus, 1991), S. 36.
Seraphin, M. (Neuronale Netze, 1994), S. 30 ff.
Zimmermann, H.G. (Entscheidungskalkül, 1994), S. 74 ff.
Vgl. Faißt, J. (Hierarchische Planung, 1993), S. 226 ff.
Rumelhart, D.E.; Widrow, B.; Lehr, M.A. (Basic Ideas, 1994), S. 90 f.
Zimmermann, H.G. (Entscheidungskalkül, 1994), S. 58 ff.
Vgl. Dorffner, G. (Konnektionismus, 1991), S. 31 ff.
Köhle, M. (Neurale Netze, 1990), S. 84 ff.
Einige Autoren nennen an dieser Stelle als drittes Lernverfahren noch verstärkendes Lernen (reinforcement learning) (vgl. z.B. Mechler, B. (Entscheidungsunterstützungs-systeme, 1994), S. 76). Dabei wird der gewünschte Output nicht exakt angegeben, sondern lediglich ein skalares Gütemaß der Leistung (z.B. gut/schlecht). Letztlich handelt es sich hierbei jedoch nur um eine andere Form des überwachten Lernens, so daß dieser Unterteilung im weiteren nicht gefolgt werden soll.
Dies entspricht in der Wirkungsweise den Clusteralgorithmen oder den Vektorquantisierungsverfahren (vgl. Lieven, K.; Weber, R. (Datenanalyse, 1994), S. 314).
Vgl. Hebb, D.O. (Behavior, 1949), S. 62.
Vgl. Faißt, J. (Hierarchische Planung, 1993), S. 115.
Schöneburg, E.; Hansen, N.; Ga-welczyk, A. (Neuronale Netzwerke, 1990), S. 46 f.
Vgl. Dorffner, G. (Konnektionismus, 1991), S. 113 ff.
Vgl. Widrow, B.; Hoff, M.E. (Circuits, 1960), S. 96 ff.
Vgl. Grauel, A. (Neuronale Netze, 1992), S. 36.
Köhle, M. (Neurale Netze, 1990), S. 87.
Vgl. Abschnitt 3.6.3.
Zu einer empirischen Untersuchung, die dies belegt vgl. Taylor, J.G. (Promise, 1993), S. 105 f.
Vertiefende Darstellungen einer größeren Anzahl an Netztypen finden sich z.B. bei Brause, R. (Neuronale Netze, 1995), S. 89 ff.
Hecht-Nielsen, R. (Neurocomputing, 1990), S. 79 ff.
Zell, A. (Simulation, 1994), S. 97 ff.
Zur generellen Struktur eines derartigen Netzes vgl. Abbildung 12.
Vgl. Minsky, M.; Papert, S. (Perceptrons, 1969), S. 227 ff.
Vgl. Werbos, P.J. (regression, 1974).
zitiert nach Zell, A. (Simulation, 1994), S. 30.
Rumelhart, D.E.; Hinton, G.E.; McClelland, J.L. (Framework, 1986), S. 45 ff.
Gleichwohl ist das Backpropagation-Netz ein feed-forward-Netz, da keine rückläufigen Verbindungen bestehen, d.h., der Signalfluß ist vorwärtsgerichtet und nur der Fehler wird rückgeführt.
Vgl. z.B. McClelland, J.L.; Rumelhart, D.E. (Explorations, 1988), S. 121 ff.
Zell, A. (Simulation, 1994), S. 108 ff.
Vgl. Köhle, M. (Neurale Netze, 1990), S. 91.
Vgl. Dorffner, G. (Konnektionismus, 1991), S. 123 f.
Vgl. Kratzer, K.-P. (Neuronale Netze, 1993), S. 81.
Schöneburg, E.; Hansen, N.; Gawelczyk, A. (Neuronale Netzwerke, 1990), S. 95 f.
Vgl. Hopfield, J.J. (Neural Networks, 1982), S. 2554 ff.
Vgl. Rigoll, G. (Neuronale Netze, 1994), S. 139.
Einige Autoren sprechen auch von einer einschichtigen Architektur (vgl. z.B. Hoffmann, N. (Handbuch, 1993), S. 92.
Lawrence, J. (Neuronale Netze, 1992), S. 99).
Vgl. Lohrbach, T. (Einsatz, 1994), S. 64 f.
Vgl. Hopfield, J.J. (Neurons, 1984), S. 3088 ff.
Vgl. Hopfield, J.J.; Tank, D.W. (Computation, 1985), S. 141 ff.
Vgl. Kohonen, T. (Self-Organization, 1989), S. 119 ff.
Kohonen, T. (Self-Organizing Maps, 1995), S. 77 ff.
Vgl. Ritter, H.; Martinez, T.; Schulten, K. (Neuronale Netze, 1990), S. 85 ff.
Weitere Ausführungen zur Verdeutlichung der biologischen Orientierung finden sich z.B. bei Kinnebrock, W. (Neuronale Netze, 1992), S. 77 f.
Kohonen, T. (Self-Organizing Map, 1993), S. 1152 ff.
Rojas, R. (Theorie, 1993), S. 340 ff.
Eine drei- oder höherdimensionale Anordnung ist zwar möglich, jedoch wird mit zunehmender Dimensionalität der Kohonen-Schicht die Interpretation der Abbildungsergebnisse schwieriger.
Vgl. Kohonen, T. (Self-Organization, 1989), S. 130.
Vgl. Kohonen, T. (Self-Organizing Maps, 1995), S. 79.
Vgl. Krause, C. (Kreditwürdigkeitsprüfung, 1993), S. 57 ff.
Rojas, R. (Theorie, 1993), S. 344.
Vgl. Köhle, M. (Neurale Netze, 1990), S. 114.
Lohrbach, T. (Einsatz, 1994), S. 37 f.
Vgl. z.B. Adam, D.; Hering, T.; Welker, M. (Künstliche Intelligenz, 1995), S. 591 f.
Harston, C.T. (Business, 1990), S. 391 ff.
Liegt keines dieser Merkmale vor, sind konventionelle Verfahren, wie z.B. statistische Methoden, Verfahren der kombinatorischen Optimierung oder Heuristiken, geeigneter, da sie mit deutlich geringerem Aufwand zu einer Lösung der Problemstellung führen (vgl. Becker, J. (Kalkulation, 1994), S. 167.
Steiner, M.; Wittkemper, H.-G. (Neuronale Netze, 1993), S. 461).
Vgl. Adam, D. (Produktions-Management, 1993), S. 7 ff.
Vgl. Becker, J. (Kalkulation, 1994), S. 162.
Vgl. Corsten, H.; May, C. (Unterstützungspotential, 1995), S. 45.
Zu der vorgenommenen Einteilung der Anwendungsfelder vgl. auch Becker, J.; Prischmann, M. (Anwendungen, 1992), S. 17 ff.
Faißt, J. (Hierarchische Planung, 1993), S. 217.
Vgl. Corsten, H.; May, C. (Unterstützungspotential, 1995), S. 48 f.
Vgl. z.B. Arizono, I.; Yamamoto, A.; Ohta, H. (Scheduling, 1992), S. 503 ff.
Foo, Y.-P.S.; Takefuji, Y. (Neural Networks, 1988), S. 341 ff.
Kurbel, K. (Maschinenbelegungsplanung, 1994), S. 55 ff.
Lohrbach, T. (Einsatz, 1994), S. 259 ff.
Zhou, D. et al. (Scheduling, 1991), S. 175 ff.
Vgl. Corsten, H.; May, C. (Unterstützungspotential, 1995), S. 49 ff.
Vgl. z.B. Füser, K. (Prognosequalität, 1994), S. 240 ff.
Hilhner, M.; Graf, J. (Aktienkursprognose, 1994), S. 149 ff.
Rehkugler, H.; Poddig, T. (Wechselkursprognosen, 1994), S. 1 ff.
Schumann, M.; Lohrbach, T. (Aktienkursprognose, 1994), S. 254 ff.
Wittkemper, H.-G. (Rendite- und Risikoschätzung, 1994), S. 92 ff.
Vgl. z.B. Baetge, J. et al. (Bonitätsbeurteilung, 1994), S. 337 ff.
Burger, A. (Klassifikation, 1994), S. 1165.
Erxleben, K. et al. (Klassifikation, 1992), S. 1237 ff.
Krause, C. (Kreditwürdigkeitsprüfung, 1993), S. 101 ff.
Pytlik, M. (Diskriminanzanalyse, 1995), S. 21 ff.
Vgl. Rojas, R. (Theorie, 1993), S. 24.
Vgl. Corsten, H.; May, C. (Unterstützungspotential, 1995), S. 51.
Vgl. Mechler, B. (Entscheidungsunterstützungssysteme, 1994), S. 79 ff.
Zell, A. (Simulation, 1994), S. 26 ff.
Vgl. Abschnitt 3.5.1.
Über die scheinbare Widersprüchlichkeit der Bezeichnung „unsicheres Wissen“ führt Spies aus: „... unsicheres Wissen [ist] keineswegs dasselbe wie Unsicherheit über ein Wissen ... “ (z.B. wenn eine Forschungsfrage noch offen ist), sondern vielmehr „... eine Unsicherheit, die im Wissen selbst liegt ... “ (Spies, M. (Unsicheres Wissen, 1993), S. 19).
Vgl. Steiner, M.; Wittkemper, H.-G. (Neuronale Netze, 1993), S. 460.
Vgl. Nauck, D.; Klawonn, F.; Kruse, R. (Neuronale Netze, 1994), S. 155 ff.
Vgl. Kurbel, K.; Pietsch, W. (Beurteilung, 1991), S. 360.
Vgl. Rehkugler, H.; Poddig, T. (Anwendungsperspektiven, 1992), S. 56 f.
Vgl. Kurbel, K.; Pietsch, W. (Beurteilung, 1991), S. 360.
Vgl. Rehkugler, H.; Poddig, T. (Neuronale Netze, 1991), S. 372.
Schumann, M. (Neuronale Netze, 1991), S. 38.
Vgl. Rückert, U.; Spaanenburg, L.; Anlauf, J. (Anwendungsstand, 1993), S. 416 f.
Vgl. Rückert, U.; Spaanenburg, L.; Anlauf, J. (Anwendungsstand, 1993), S. 417.
Vgl. Goser, K.; Ramacher, U. (Realisierung, 1992), S. 244 ff.
Einen Überblick über verfügbare Neuro-Hardware findet sich bei Zell, A. (Simulation, 1994), S. 451 ff.
Bei dieser Zahl bleibt die einigen Publikationen beigefügte Neuro-Software unberücksichtigt: z.B. in Bharath, R.; Drosen, J. (Neural Network, 1994).
Caudill, M.; Butler, C. (Neural Networks, 1992).
Hoffmann, N. (Simulation, 1992).
Seraphin, M. (Neuronale Netze, 1994).
Vgl. May, C. (Simulation, 1996), S. 45 f.
Zu einer differenzierten Darstellung vgl. Trauboth, H. (Software-Qualitätssicherung, 1993), S. 25 ff.
Einer Überblick möglicher Maßzahlen des Zeitverhaltens Neuronaler Netze gibt Zell, A. (Simulation, 1994), S. 414 f.
Vgl. Zell, A. (Simulation, 1994), S. 424 f.
Erste Ansätze um Leistungsmeßverfahren Neuronaler Netze vergleichbar zu machen finden sich bei Prechelt, L. (Benchmarking, 1994), S. 4 ff.
Vgl. Alba, E.; Aldana, J.F.; Troya, J.M. (Genetic Algorithms, 1993), S. 683 ff.
Schiffmann, W.; Joost, M.; Werner, R. (Performance Analysis, 1992), S. 13 ff.
Scholz, M. (Topologiegenerierung, 1995), S. 59 ff.
Wittkemper, H.-G. (Rendite- und Risikoschätzung, 1994), S. 66 ff.
Weitere Darstellungen von Neuro-Softwaresysteinen finden sich z.B. bei Berns, K.; Kolb, T. (Neuronale Netze, 1994), S. 124 ff.
Dengel, A.; Lutzy, O. (Comparative Study, 1993), S. 43 ff.
Huber, C; Geiger, H.; Nucke, H. (Anwendungsstand, 1993), S. 370 ff.
James, H. (Software, 1994), S. 181 ff.
Jurik, M. (software, 1993), S. 36 ff.
Miller, R.K.; Walker, T.C.; Ryan, A.M. (Applications, 1990), S. 241 ff.
Namyslik, F. (Tools, 1991), S. 60 ff.
Thuy, N.H.C. (Marktübersicht, 1992), S. 33 ff.
Zell, A. (Simulation, 1994), S. 349 ff.
Zeitpunkt der Untersuchung: Juni 1995.
Dabei ist es durchaus denkbar, daß sich im Laufe der Entwicklung des Neuronalen Netzes herausstellt, daß die gewählte technologische Realisierung für die gegebene Fragestellung ungeeignet ist, beispielsweise weil die Geschwindigkeit einer Software-Realisierung nicht ausreicht oder weil ein mit der gewählten Software oder Hardware nicht realisierbarer Netztyp erforderlich ist.
Vgl. Abschnitt 3.6.2.4.
Vgl. z.B. Weigend, A.S.; Huberman, B.A.; Rumelhart, D.E. (Predicting the Future, 1990), S. 196.
Vgl. Baum, E.B.; Haussler, D. (Generalization, 1989), S. 151 ff.
Vgl. z.B. Fausett, L.V. (Fundamentals, 1994), S. 298.
Vgl. Kratzer, K.-P. (Neuronale Netze, 1993), S. 167 f.
Vgl. z.B. Kratzer, K.-P. (Neuronale Netze, 1993), S. 154.
Lawrence, J. (Data Preparation, 1991), S. 39.
Ein Grund für die Verwendung solcher Intervalle kann beispielsweise sein, daß die Einoder Ausgabedaten, die zum Training verwendet werden, nicht in genauerer Form vorliegen oder daß die Genauigkeit solcher Intervalle für den vorgesehenen Zweck ausreichend ist.
Vgl. Fausett, L.V. (Fundamentals, 1994), S. 299.
Vgl. Kratzer, K.-P. (Neuronale Netze, 1993), S. 155 ff.
Vgl. Mechler, B. (Entscheidungsunterstützungssysteme, 1994), S. 81.
Vgl. Kratzer, K.-P. (Neuronale Netze, 1993), S. 163.
Vgl. Abbildung 13. Der Grund für den verbreiteten Einsatz der logistischen Funktion ist nicht die Ähnlichkeit mit der Aktivierungsfunktion natürlicher Neuronen, wie Adam, Hering und Welker (vgl. Adam, D.; Hering, T.; Welker, M. (Künstliche Intelligenz, 1995), S. 508) vermuten (natürliche Nervenzellen verfügen über nichtkontinuierliche Aktivierungsfunktionen nach dem Alles-oder-Nichts-Prinzip), sondern ist nach Meinung des Autors vielmehr auf die einfache Differenzierbarkeit und die mit der Nichtlinearität verbundenen Eigenschaften der logistischen Funktion zurückzuführen.
Vgl. Stein, R. (Selecting, 1993), S. 46.
Vgl. Schwarze, J. (Statistik, 1992), S. 103 ff.
Vgl. Stein, R. (Preprocessing, 1993), S. 32.
Vgl. Rumelhart, D.E.; Widrow, B.; Lehr, M.A. (Basic Ideas, 1994), S. 90 f.
Wittkemper, H.-G. (Rendite- und Risikoschätzung, 1994), S. 52 ff.
Zimmermann, H.G. (Entscheidungskalkül, 1994), S. 58 ff.
Eine Lernepoche bezeichnet den einmaligen Durchlauf aller Datensätze durch ein Neuronales Netz (vgl. Zell, A. (Simulation, 1994), S. 414).
Vgl. Wittkemper, H.-G. (Rendite- und Risikoschätzung, 1994), S. 54.
Aufstellungen von Aufgabenbereichen und dafür prinzipiell geeigneten Netztypen finden sich z.B. bei Berns, K.; Kolb, T. (Neuronale Netze, 1994), S. 49 ff.
Jones, D.; Franklin, S.P. (Choosing, 1990), S. 221 ff.
Kemke, C. (Konnektionismus, 1988), S. 155 ff.
Krause, C. (Kreditwürdigkeitsprüfung, 1993), S. 60 ff.
Rigoll, G. (Neuronale Netze, 1994), S. 231 ff.
Vgl. z.B. Rigoll, G. (Neuronale Netze, 1994), S. 45.
Zell, A. (Simulation, 1994), S. 90.
Die Anzahl der Neuronen in der Ein- und Ausgabeschicht wird implizit bereits im Rahmen der Datenaufbereitung festgelegt.
Vgl. z.B. Hornik, K. (Approximation Capabilities, 1991), S. 251 ff.
Hornik, K.; Stinchcombe, M.; White, H. (Universal Approximators, 1989), S. 359 ff.
Zu dieser Kritik vgl. Zell, A. (Simulation, 1994), S. 559 f.
Vgl. Hecht-Nielsen, R. (Neurocomputing, 1990), S. 133.
Fausett, L.V. (Fundamentals, 1994), S. 299.
Maren, A.J.; Jones, D.; Franklin, S. (Configuring, 1990), S. 238 f.
Vgl. Maren, A.J.; Jones, D.; Franklin, S. (Configuring, 1990), S. 242.
Vgl. Bailey, D.; Thompson, D. (Applications, 1990), S. 46.
Vgl. Rigoll, G. (Neuronale Netze, 1994), S. 259 f.
Vgl. Kratzer, K.-P. (Neuronale Netze, 1993), S. 148.
Zu einer Übersicht vgl. Zell, A. (Simulation, 1994), S. 115 ff.
Vgl. Köhle, M. (Neurale Netze, 1990), S. 95 ff..
Krause, C. (Kreditwürdigkeitsprüfung, 1993), S. 155 ff.
Rigoll, G. (Neuronale Netze, 1994), S. 262 f.
Zell, A. (Simulation, 1994) S. 113 f.
Vgl. Zell, A. (Simulation, 1994), S. 114.
Vgl. Köhle, M. (Neurale Netze, 1990), S. 97.
Vgl. Fausett, L.V. (Fundamentals, 1994), S. 296 f.
Problematisch an dieser Vorgehensweise ist der Umstand, daß auch nach einem längeren Ansteigen des Fehlers der Testdaten dieser wieder fallen kann. Damit verbleiben nur die zwei Alternativen, entweder den Zeitpunkt, an dem der Lernvorgang abgebrochen werden soll, anhand des Fehlerverlaufs (z.B. der Steigung) zu „erahnen“ oder den Lernvorgang so lange fortzusetzen, bis mit an Sicherheit grenzender Wahrscheinlichkeit ausgeschlossen werden kann, daß der Fehler der Testdaten nochmals sinkt.
Vgl. Hecht-Nielsen, R. (Neurocomputing, 1990), S. 117.
Krause, C. (Kreditwürdigkeitsprüfung, 1993), S. 126.
Vgl. Seraphin, M. (Neuronale Netze, 1994), S. 96 ff.
Das Oszillieren eines Neuronalen Netzes während der Lernphase läßt sich anschaulich als ständiges Springen von der einen Seite eines Tales des Fehlergebirges zur anderen Seite interpretieren (vgl. Zell, A. (Simulation, 1994), S. 112).
Vgl. z.B. Füser, K. (Prognosequalität, 1994), S. 255.
Wittkemper, H.-G. (Rendite- und Risikoschätzung, 1994), S. 42.
Vgl. Schwarze, J. (Statistik, 1992), S. 147.
Vgl. Schwarze, J. (Statistik, 1992), S. 153 f.
Vgl. Abschnit 4.7.2.2
Rights and permissions
Copyright information
© 1996 Betriebswirtschaftlicher Verlag Dr. Th. Gabler GmbH, Wiesbaden
About this chapter
Cite this chapter
May, C. (1996). Grundlagen Neuronaler Netze. In: PPS mit Neuronalen Netzen. Deutscher Universitätsverlag. https://doi.org/10.1007/978-3-322-97729-8_3
Download citation
DOI: https://doi.org/10.1007/978-3-322-97729-8_3
Publisher Name: Deutscher Universitätsverlag
Print ISBN: 978-3-8244-6370-1
Online ISBN: 978-3-322-97729-8
eBook Packages: Springer Book Archive