Zusammenfassung
In diesem Beitrag wird ein neues Verfahren entwickelt, das die Cluster—und LMS—Verfahren in einem Netz kombiniert. Das entwikkelte Cluster—Verfahren, das als LTC—( l ocally t rained c lusters) Algorithmus bezeichnet, trainiert die einzelnen Cluster (Subklassen) sukzessive mit der jeweiligen lokalen Datenmenge. Aufbauend auf diesen Subklassen wird ein vorwärtsgerichtetes Netz konstruiert, das dann mit einem LMS—Verfahren durch die gesamte, globale Datenmenge weiter verfeinert wird. Das trainierte Netz wird als LGT—( l ocally and g lobally t rained) Netz bezeichnet. Umfangreiche experimentelle Untersuchungen verifizieren die Vorteile dieses neu entwickelten Verfahrens.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Similar content being viewed by others
Literatur
T. Kohonen, ”Self-Organizing Map,” Proc. of the IEEE, Vol.178, No. 9, Sept. pp. 1464 – 1480, 1990.
D. L. Reilly, L. N. Cooper und C. Elbaum, ”A neural model for category learning,” Biol. Cybern., vol. 45, pp. 35 – 41, 1982.
J. Schürmann, ”Neuronale Netze und die Klassischen Methoden der Mustererkennung,”FhG-Berichte, pp. 24–34, 1/1991.
D. E. Rumelhart, G. E. Hinton and R. J. Williams, ”Learning internal representations by error propagation,” in D.E. Rumelhart, J.L. McClelland (Eds.) Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Vol. 1, MIT Press, Cambridge, MA, pp. 318 – 362, 1986.
S. Chen, C. F. N. Cowan, and P. M. Grant, ”Orthogonal Least Squares Learning Algorithm for Radial Basis Function Networks,” IEEE Transaction on Neural Networks vol. 2, no. 2, pp. 302 – 309, March 1991.
T. Denoeux and R. Lengelle, ”Initializing back propagation networks with prototypes,” Neural Networks, Vol. 6, pp. 351 – 363, 1993.
The Math Works, Inc., ”Neural Network Toolbox User’s Guide: For Use with MAT-LAB,” January 1994.
K. J. Lang and M. J. Witbrock, ”Learning to tell two spirals apart,” Proc. of the 1988 Connectionist Models Summer School, Morgan Kaufmann, pp. 52 – 59, 1989.
S. E. Fahlman, Ch. Lebiere, ”The cascade-correlation learning architecture,”In D. S. Touretzky (Eds.), Advances in neural information processing systems 2, pp. 524–532, Morgan Kaufman, Inc., 1990.
D.H. Deterding,”Speaker Normalization for Automatic Speech Recognition,” PhD Thesis, University of Cambridge, 1989.
A.J. Robinson, F. Fallside, ”A Dynamic Connectionist Model for Phoneme Recognition,” Proceedings of nEuro’88, Paris, June, 1988.
L. Prechelt, ”PROBEN 1-A Set of Neural Network Benchmark Problems and Bench-marking Rules,” Technical Report 21/94 Fakultät für Informatik, Universität Karlsruhe, Germany, September 1994.
Author information
Authors and Affiliations
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 1997 Springer-Verlag Berlin Heidelberg
About this paper
Cite this paper
Jiang, X., vom Stein, HD. (1997). Ein lokal und global trainiertes neuronales Netz für Aufgaben der Mustererkennung. In: Paulus, E., Wahl, F.M. (eds) Mustererkennung 1997. Informatik aktuell. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-60893-3_11
Download citation
DOI: https://doi.org/10.1007/978-3-642-60893-3_11
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-540-63426-3
Online ISBN: 978-3-642-60893-3
eBook Packages: Springer Book Archive