Skip to main content

Das autoassoziative MLP als neuer Ansatz zur Analyse von Strukturmodellen mit nichtlinearen Beziehungen zwischen den latenten Variablen

  • Chapter
Neuronale Netze zur Analyse von nichtlinearen Strukturmodellen mit latenten Variablen

Part of the book series: Gabler Edition Wissenschaft ((GEW))

  • 246 Accesses

Zusammenfassung

Im Rahmen dieses Kapitels erfolgt die Darstellung eines neuen Ansatzes zur Analyse von Strukturmodellen mit nichtlinearen Beziehungen zwischen den latenten Variablen mittels eines Multi-Layer-Perceptrons. Auf die Vorstellung seiner Architektur und Aufstellung von Hypothesen über seine Ergebnisse folgt die Diskussion von Detailfragen im Zusammenhang mit der Architektur, den Lernparametern sowie den Daten.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 44.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 59.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Vgl. zu diesem Abschnitt ZELL (1994), S. 81f, CONRAD (1995), S. 169. Meist wird zudem die Anzahl der Neuronen in der vorgelagerten Schicht so definiert, daß sie den Bias umfaßt. Die zweite Implementierungsart besteht darin, Schwellen als eigenständige Parameter in den Aktivierungsfunktionen zu trainieren.

    Google Scholar 

  2. Vgl. hierzu HRUSCHKA (1991), S. 218. Ein negativer Bias entspricht jedoch nur bei Aktivierungsfunktionen mit Wertebereich im Negativen, z.B. der linearen, einem negativen Absolutglied, nicht aber bei der logistischen Funktion.

    Google Scholar 

  3. Vgl. MAREN/JONES/FRANKLIN (1990), S. 248, MORGAN/BOURLAND (1990), WEISS/KUTIKOWSKI (1991), S. 104, STEINER/WITTKEMPER (1993).

    Google Scholar 

  4. Vgl. WINSTON (1992), S. 467, SARLE (1996), part 3, S. 13f.

    Google Scholar 

  5. Vgl. HERTZ ET Al,. (1991), S. 158–162, BELLIDO/FERNANDEZ (1991), WEIGEND/ RUMELHART/HUBERMAN (1992), BISHOP (1995), S. 333–349.

    Google Scholar 

  6. ) Vgl. SARLE (1996), part 3, S. 9. Zum weight pruning vgl. KARNIN (1990), SIETSMA/DOW (1991). Zur Berechnung der Sensitivität vgl. HRUSCHKA (1991), S. 223 und die dort angegebene Literatur. Zum weight decay vgl. WERHOS (1974), ZELL (1994), S. 117.368) Vgl. STFINER/WITTKEMPER (1993), S. 461 und die dort angegebene Literatur. Auf weitere Heuristiken zur Bestimmung der im Sinne der Generalisierungsfähigkeit geeigneten Topologie vgl. SCHONEBURG (1993)

    Google Scholar 

  7. Vgl. SARLE (1996), part 3, S. 13f.

    Google Scholar 

  8. Vgl. HARP ET AL. (1990), KAMEJAMA/KOSUGI (1991), WEIGEND/RUMELHART/HUBERMAN (1992), BELLIDO/FERNANDEZ (1991).

    Google Scholar 

  9. Vgl. z.B. PoDDIG (1994), S. 242f und die dort angegebene Literatur.

    Google Scholar 

  10. Vgl. MOODY/UTANS (1991), SARLE (1996), part 3, S. 14.

    Google Scholar 

  11. Vgl. im folgenden KRAMER (1991), S. 236f.

    Google Scholar 

  12. Vgl. KRAMER (1991), S. 236f.

    Google Scholar 

  13. Vgl. KRAMER(1991), S. 237.

    Google Scholar 

  14. Vgl. hierzu und im folgenden LJUNG (1987), KRAMER (1991), S. 237. Zu Verfahren der Modellselektion in der Regressionsanalyse vgl. z.B. RUST/SCHMITFLEIN (1985), S. 21–26.

    Google Scholar 

  15. Zum Aufbau der Simulationsstudie vgl. KAPITEL 6. Zur Berechnung wurde jeweils der erste Datensatz der Treatmentkombination 4, 8, 12, 16, 20 und 24 verwendet. Der Umfang der Trainingsdaten betrug 300 und der der Testdaten 100 Fälle.

    Google Scholar 

  16. ) Vgl. ZELL (1994), S. 113f.

    Google Scholar 

  17. ) Vgl. HRUSCHKA(1993), S. 31, NAUCK/KLAwoNN/KRUSE(1994), S. 79.

    Google Scholar 

  18. ) Vgl. FREEMAN/SCAPURA (1991), S. 105.

    Google Scholar 

  19. ) Vgl. HERTZ ET AL. (1991), S. 124.

    Google Scholar 

  20. ) Vgl. HERTZ ET AL. (1991), S. 124 und die dort angegebene Literatur. Zu anderen Vorschlägen vgl. STEINER/ WITTKEMPER (1993).

    Google Scholar 

  21. Vgl. NEURALWARE (1993a), S. UN-64f sowie Kap. 5.4.5.

    Google Scholar 

  22. ) Vgl. etwa HERTZ ET AL. (1991), S. 108, 123, STEINER/WITTKEMPER (1993), NAUCK/KLAWONN/KRUSE (1994), S. 79.

    Google Scholar 

  23. Vgl. ERXLEBEN ET AL. (1992), S.1244.

    Google Scholar 

  24. Vgl. HECHT-NIELSEN (1990), S. 115f.

    Google Scholar 

  25. Vgl. hierzu und im folgenden VAN DouwE (1995), S. 121f. Vgl. zum Abbruchkriterium fir LISREL JÖRESKOG/SÒRBOM (1996), S. 327. Zur prozentualen Fehlerhöhe und. Standardvoreinstellung in der nichtlinearen Regression unter SPSS vgl. NORUSIS/SPSS (1993), S. 231.

    Google Scholar 

  26. Zur absoluten Gewichtsänderung vgl. CORSTEN/MAY (1996b), S. 219 und zur relativen NoRusIs/SPSS (1993), S. 231, VAN DOUWE (1995), S. 122 und die dort angegebene Literatur.

    Google Scholar 

  27. Vgl. NEURALWARE (1993b), S. RF-32. Zum RMSE vgl. Kapitel 6.

    Google Scholar 

  28. Vgl. RITTINGHAUS-MAYER (1993), S. 177, RIGOLL(1994), S. 261.

    Google Scholar 

  29. Vgl. NEURALWARE (1993c), S. NC-68.

    Google Scholar 

  30. Vgl. HRUSCHKA (1991), S. 220.

    Google Scholar 

  31. Vgl. NEURALWARE (1993c), S. NC-69.

    Google Scholar 

  32. Vgl. zu diesem Abschnitt HERTZ ET AL. (1991), S. 129f.

    Google Scholar 

  33. Vgl. hierzu HECHT-NIELSEN (1989), S. 2–4, NAUCK/KLAWONN/KRUSE (1994), S. 79, ZELL(1994), S. 111.

    Google Scholar 

  34. Vgl. HRUSCHKA (1993), S. 31, STEINER/WITTKEMPER (1993), FREEMAN/SCAPURA (1991), S. 104.

    Google Scholar 

  35. Vgl. NEURALWARE (1993a), S. UN-64.

    Google Scholar 

  36. Vgl. HERTZ ET AL. (1991), S. 129. So ähnlich auch NEURALWARE (1993a), S. UN-65, ZELL (1994), S. 111.

    Google Scholar 

  37. Vgl. KOHLE (1990), S. 90, ERXLEBEN ET AL. (1992), S. 1246.

    Google Scholar 

  38. Vgl. $TECKEL/VANHONAKER (1993), S. 416, MCCARTHY (1976), S. 596–604, SNEE (1977), S. 420f, PICARD/COOK (1984), S. 578f und die dort jeweils angegebene Literatur zu nichtzufälligen Aufteilungsarten.

    Google Scholar 

  39. Vgl. STECKEL/VANHONAKER (1993), S. 416 und die von ihm betrachteten Studien auf S. 423.

    Google Scholar 

  40. Vgl. COOIL ET AL. (1987), S. 272, PICARD/COOK (1984), S. 576, STECKEUVANHONAKER (1993), S. 416, S. 423 und die dort angegebene Literatur.

    Google Scholar 

  41. Vgl. STECKEUVANHONACKER (1993), S. 416, 420f. Unter groß verstehen die Autoren n=100. Das steht auch im Einklang mit der Faustregel von GREEN/TULL (1982), S. 313.

    Google Scholar 

  42. Vgl. COOIL ET AL. (1987), S. 272, STECKEL/VANHONACKER (1993), S.416, 423 und die dort angegebene Literatur.

    Google Scholar 

  43. Vgl. ODOM/SIIARDA (1990), S. 163–167, ERxLEOEN ET AL. (1992), S. 1240, LOHRSACH (1994), S. 43.

    Google Scholar 

  44. Vgl. PODDIG (1994), S. 235–237.

    Google Scholar 

  45. Vgl. FREEMAN/SCAPURA (1991), S. 103.

    Google Scholar 

  46. Vgl. SNEE(1977), S. 422.

    Google Scholar 

  47. Vgl. WEISS/KUTIKOWSKI (1991), S. 104, MORGAN/BOURLAND (1990), MAREN/ JONES/FRANKLIN (1990), S. 248, SARLE (1996), Part 3, S. 3.

    Google Scholar 

  48. Vgl. WINSTON (1992), S. 467. Zu weiteren Heuristiken vgl. STEINER/WITTKEMPER (1993), S. 461.

    Google Scholar 

  49. Vgl. NEURALWARE (1993b), RF-228, GAUL ET AL. (1994), S. 286. In beiden Quellen finden sich zwar unterschiedliche Formulierungen, die aber äquivalent sind. Zu weiteren Skalierungsarten vgl. SARLE (1996), part 2, S. 19.Vgl. SARLE(1996), S. 20

    Google Scholar 

  50. Zum diesem als Saturation oderflat spots bezeichneten Problem vgl. NEURALWARE (1993a), UN-64, ZELL (1994), S. 116.

    Google Scholar 

  51. Vgl. NEURALWARE (1993a), UN-64f.

    Google Scholar 

  52. Ein weiterer Vorschlag beinhaltet die Skalierung des Eingabebereichs auf [-1,1] sowie die Verwendung der tangens-hyperbolicus-Aktivierungsfunktion, vgl. ZELL (1994), S. 114.

    Google Scholar 

  53. Vgl. SARLE (1996), S. 21. Ein weiterer Grund ist die Skalensensitivität der Gradientabstiegsverfahren wie BP.

    Google Scholar 

  54. Voreinstellung bei Neural Works Il, Vgl. NEURALWARE (1993b), S. RF-40.

    Google Scholar 

  55. Vgl. RUMELHART/HINTON/WILLIAMS (1986), S. 329, GAUL ET AL. (1994), S. 286.

    Google Scholar 

Download references

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 2001 Springer Fachmedien Wiesbaden

About this chapter

Cite this chapter

Zander, A. (2001). Das autoassoziative MLP als neuer Ansatz zur Analyse von Strukturmodellen mit nichtlinearen Beziehungen zwischen den latenten Variablen. In: Neuronale Netze zur Analyse von nichtlinearen Strukturmodellen mit latenten Variablen. Gabler Edition Wissenschaft. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-322-99297-0_5

Download citation

  • DOI: https://doi.org/10.1007/978-3-322-99297-0_5

  • Publisher Name: Deutscher Universitätsverlag, Wiesbaden

  • Print ISBN: 978-3-8244-7259-8

  • Online ISBN: 978-3-322-99297-0

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics