Zusammenfassung
In Kapitel 5 haben wir uns ausführlich mit der Funktionsweise von Turing-Maschinen beschäftigt und dabei zwei wichtige Beobachtungen gemacht: Einerseits können wir Turing-Maschinen dazu verwenden, um Zeichensequenzen zu generieren. Andererseits können wir sie wie die Programme einer beliebigen Programmiersprache behandeln und somit selbst als Zeichensequenzen auffassen. In diesem Abschnitt werden wir diese Beziehung verallgemeinern und eine Zeichensequenz s mit dem kürzesten Programm in Bezug setzen, das s erzeugt. Auf diese Weise wird es uns gelingen, den Informationsgehalt oder die Komplexität einer endlich langen oder unendlich langen Zeichenkette exakt zu messen. Die ersten Untersuchungen dieser Art wurden gegen Ende der Sechzigerjahre von Ray Solomonoff, Andrej Kolmogorov und Gregory Chaitin durchgeführt. Aus diesen Forschungsarbeiten hat sich eine neue Theorie der Information entwickelt, die wir heute als algorithmische Informationstheorie bezeichnen.
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsPreview
Unable to display preview. Download preview PDF.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 2013 Springer-Verlag Berlin Heidelberg
About this chapter
Cite this chapter
Hoffmann, D. (2013). Algorithmische Informationstheorie. In: Grenzen der Mathematik. Springer Spektrum, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-34720-7_6
Download citation
DOI: https://doi.org/10.1007/978-3-642-34720-7_6
Publisher Name: Springer Spektrum, Berlin, Heidelberg
Print ISBN: 978-3-642-34719-1
Online ISBN: 978-3-642-34720-7
eBook Packages: Life Science and Basic Disciplines (German Language)