Skip to main content

Regression

  • Chapter
  • First Online:
  • 20k Accesses

Part of the book series: Computational Intelligence ((CI))

Zusammenfassung

Die Regressionsanalyse schätzt die funktionalen Abhängigkeiten zwischen Merkmalen, um Zusammenhänge zu verstehen und gezielt zu steuern. Lineare Regressionsmodelle können effizient aus den Kovarianzen berechnet werden, sind aber auf lineare Zusammenhänge beschränkt. Durch Substitution lassen sich auch bestimmte nichtlineare Regressionsmodelle durch lineare Regression finden. Robuste Regression ist weniger empfindlich gegenüber Ausreißern. Eine wichtige Familie nichtlinearer Regressionsmodelle sind universelle Approximatoren. Wir stellen zwei bekannte Beispiele für universelle Approximatoren mit neuronalen Netzen vor: mehrschichtiges Perzeptron und Netze mit radialen Basisfunktionen. Mit universellen Approximatoren lassen sich beliebig kleine Trainingsfehler erreichen, aber für Modelle mit guter Generalisierungsfähigkeit werden geringe Validierungsfehler benötigt, die sich mit Kreuzvalidierungsverfahren bestimmen lassen. Durch Merkmalsselektion werden nur die relevanten Merkmale berücksichtigt, was zu einfacheren und oft genaueren Modellen führt.

This is a preview of subscription content, log in via an institution.

Buying options

Chapter
USD   29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD   29.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD   37.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Learn about institutional subscriptions

Literatur

  1. H. Akaike. A new look at the statistical model identification. IEEE Transactions on Automatic Control, AC–19:716–723, 1974.

    Google Scholar 

  2. P. Craven and G. Wahba. Smoothing noisy data with spline functions: Estimating the correct degree of smoothing by the method of generalized cross–validation. Numerical Mathematics, 31:377–403, 1979.

    Google Scholar 

  3. R. Hecht-Nielsen. Neurocomputing. Addison-Wesley, 1990.

    Google Scholar 

  4. K. Hornik, M. Stinchcombe, and H. White. Multilayer feedforward networks are universal approximators. Neural Networks, 2(5):359–366, 1989.

    Google Scholar 

  5. P. J. Huber. Robust Statistics. Wiley, New York, 2nd edition, 2009.

    Google Scholar 

  6. A. N. Kolmogorov. On the representation of continuous functions of many variables by superposition of continuous functions of one variable and addition. Doklady Akademii Nauk SSSR, 144:679–681, 1957.

    Google Scholar 

  7. R. Meiria and J. Zahavi. Using simulated annealing to optimize the feature selection problem in marketing applications. European Journal of Operational Research, 171(3):842–858, 2006.

    Google Scholar 

  8. J. Moody and C. Darken. Fast learning in networks of locally-tuned processing units. Neural Computation, 1:281–294, 1989.

    Google Scholar 

  9. F. Rosenblatt. The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Reviews, 65:386–408, 1958.

    Google Scholar 

  10. P. J. Rousseeuw and A. M. Leroy. Robust Regression and Outlier Detection. Wiley, New York, 1987.

    Google Scholar 

  11. D. E. Rumelhart, G. E. Hinton, and R. J. Williams. Learning internal representations by error backpropagation. In D. E. Rumelhart and J. L. McClelland, editors, Parallel Distributed Processing. Explorations in the Microstructure of Cognition, volume 1, pages 318–362. MIT Press, Cambridge, 1986.

    Google Scholar 

  12. W. Siedlecki and J. Sklansky. A note on genetic algorithms for large–scale feature selection. Pattern Recognition Letters, 10(5):335–347, 1989.

    Google Scholar 

  13. S. Vieira, J. M. Sousa, and T. A. Runkler. Multi-criteria ant feature selection using fuzzy classifiers. In C. A. Coello Coello, S. Dehuri, and S. Ghosh, editors, Swarm Intelligence for Multi-objective Problems in Data Mining, pages 19–36. Springer, 2009.

    Google Scholar 

  14. P. J. Werbos. The Roots of Backpropagation: From Ordered Derivatives to Neural Networks and Political Forecasting (Adaptive and Learning Systems for Signal Processing, Communications and Control Series). Wiley–Interscience, 1994.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Thomas A. Runkler Prof. Dr.-Ing. .

Rights and permissions

Reprints and permissions

Copyright information

© 2015 Springer Fachmedien Wiesbaden

About this chapter

Cite this chapter

Runkler, T. (2015). Regression. In: Data Mining. Computational Intelligence. Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-8348-2171-3_6

Download citation

Publish with us

Policies and ethics