Zusammenfassung
Die Induktion von Entscheidungsbäumen mit Hilfe eines Top-Down-Verfahrens ist eine bekannte und weit verbreitete Technik zur Bestimmung von Klassifikatoren. Der Erfolg dieser Methode hängt stark von dem Auswahlmaß ab, mit dem beim Aufbau des Entscheidungsbaums das nächste zu testende Attribut bestimmt wird. In diesem Aufsatz geben wir einen Überblick über eine Reihe von Auswahlmaßen, die in der Vergangenheit für die Induktion von Entscheidungsbäumen vorgeschlagen wurden. Wir erläutern die den Maßen zugrundeliegenden Ideen und vergleichen die betrachteten Maße anhand experimenteller Ergebnisse.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
P.W. Baim. A Method for Attribute Selection in Inductive Learning Systems. IEEE Trans. on Pattern Analysis and Machine Intelligence, PAMI-10:888–896, 1988
C. Borgelt, J. Gebhardt und R. Kruse. Concepts for Probabilistic and Possibilistic Induction of Decision Trees on Real World Data. Proc. of the EUFIT’96, Vol. 3:1556–1560, 1996
L. Breiman, J.H. Friedman, R.A. Olshen und C.J. Stone. Classification and Regression Trees, Wadsworth International, Belmont, CA, 1984
C.K. Chow und C.N. Liu. Approximating Discrete Probability Distributions with Dependence Trees. IEEE Trans. on Information Theory 14(3):462–467, IEEE 1968
G.F. Cooper und E. Herskovits. A Bayesian Method for the Induction of Probabilistic Networks from Data. Machine Learning 9:309–347, Kluwer 1992
Z. Daróczy. Generalized Information Functions. Information and Control 16:36–51, 1970
J. Gebhardt und R. Kruse. A Possibilistic Interpretation of Fuzzy Sets in the Context Model. Proc. IEEE Int. Conf. on Fuzzy Systems, 1089–1096, San Diego 1992.
J. Gebhardt und R. Kruse. Learning Possibilistic Networks from Data. Proc. 5th Int. Workshop on AI and Statistics, 233–244, Fort Lauderdale, 1995
J. Gebhardt und R. Kruse. Tightest Hypertree Decompositions of Multivariate Possibility Distributions. Proc. Int. Conf. on Information Processing and Management of Uncertainty in Knowledge-based Systems, 1996
R.V.L. Hartley. Transmission of Information. The Bell Systems Technical Journal 7:535–563, 1928
D. Heckerman, D. Geiger und D.M. Chickering. Learning Bayesian Networks: The Combination of Knowledge and Statistical Data. Machine Learning 20:197–243, Kluwer 1995
M. Higashi und G. J. Klir. Measures of Uncertainty and Information based on Possibility Distributions. Int. Journal of General Systems 9:43–58, 1982
D.A. Huffman. A Method for the Construction of Minimum Redundancy Codes. Proc. IRE 40, No. 10, 1098–1101, 1952
G.J. Klir und M. Mariano. On the Uniqueness of a Possibility Measure of Uncertainty and Information. Fuzzy Sets and Systems 24:141–160, 1987
I. Kononenko. On Biases in Estimating Multi-Valued Attributes. Proc. 1st Int. Conf. on Knowledge Discovery and Data Mining, 1034–1040, Montreal, 1995
R.E. Krichevsky und V.K. Trofimov. The Performance of Universal Coding. IEEE Trans. on Information Theory, 27(2):199–207, 1983
R. Kruse, E. Schwecke und J. Heinsohn. Uncertainty and Vagueness in Knowledge-based Systems: Numerical Methods. Springer, Berlin 1991
R. Kruse, J. Gebhardt und F. Klawonn. Foundations of Fuzzy Systems, John Wiley & Sons, Chichester, England 1994
S. Kullback und R.A. Leibler. On Information and Sufficiency. Ann. Math. Statistics 22:79–86, 1951
R. Lopez de Mantaras. A Distance-based Attribute Selection Measure for Decision Tree Induction. Machine Learning 6:81–92, Kluwer 1991
P.M. Murphy und D. Aha, UCI Repository of Machine Learning Databases, ftp://ics.uci.edu/pub/machine-learning-databases, 1994
H.T. Nguyen. Using Random Sets. Information Science 34:265–274, 1984
J.R. Quinlan. Induction of Decision Trees. Machine Learning 1:81–106, 1986
J.R. Quinlan. C4.5: Programs for Machine Learning, Morgan Kaufman, 1993
J. Rissanen. A Universal Prior for Integers and Estimation by Minimum Description Length. Annals of Statistics 11:416–431, 1983
J. Rissanen. Stochastic Complexity and Its Applications. Proc. Workshop on Model Uncertainty and Model Robustness, Bath, England, 1995
C.E. Shannon. The Mathematical Theory of Communication. The Bell Systems Technical Journal 27:379–423, 1948
L. Wehenkel. On Uncertainty Measures Used for Decision Tree Induction. Proc. IPMU, 1996
X. Zhou und T.S. Dillon. A statistical-heuristic Feature Selection Criterion for Decision Tree Induction. IEEE Trans. on Pattern Analysis and Machine Intelligence, PAMI-13:834–841, 1991
Author information
Authors and Affiliations
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 1998 Physica-Verlag Heidelberg
About this chapter
Cite this chapter
Borgelt, C., Kruse, R. (1998). Attributauswahlmaße für die Induktion von Entscheidungsbäumen: Ein Überblick. In: Nakhaeizadeh, G. (eds) Data Mining. Beiträge zur Wirtschaftsinformatik, vol 27. Physica-Verlag HD. https://doi.org/10.1007/978-3-642-86094-2_4
Download citation
DOI: https://doi.org/10.1007/978-3-642-86094-2_4
Publisher Name: Physica-Verlag HD
Print ISBN: 978-3-7908-1053-0
Online ISBN: 978-3-642-86094-2
eBook Packages: Springer Book Archive