Zusammenfassung
Die Informationstheorie ist der Teil der Stochastik, der sich aus Fragestellungen der Nachrichtenübertragung entwickelt hat. Die Theorie handelt von Zufallsaspekten, von den übermittelten Inhalten wird dabei abgesehen. Es geht weitgehend um Codes, deren Eigenschaften man mithilfe von Begriffen wie Entropie, Redundanz, Information und Kanalkapazität zu erfassen sucht.
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsPreview
Unable to display preview. Download preview PDF.
Literatur
Claude E. Shannon, 1916-2001, amerikanischer Mathematiker und Elektroingenieur. Shannon schuf die Informationstheorie, als er die Übertragung von Nachrichten durch gestörte Kanäle untersuchte. Dabei erkannte er die fundamentale Rolle der Entropie, ein Begriff, den er der statistischen Physik entlehnte.
David A. Huffman, 1925-1999, amerikanischer Computerpionier. Den nach ihm benannten Code fand er im Jahre 1952.
Herman Chernoff, *1923, amerikanischer Mathematiker und Statistiker.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 2010 Springer Basel AG
About this chapter
Cite this chapter
Kersting, G., Wakolbinger, A. (2010). Ideen aus der Informationstheorie. In: Elementare Stochastik. Mathematik Kompakt. Springer, Basel. https://doi.org/10.1007/978-3-0346-0414-7_6
Download citation
DOI: https://doi.org/10.1007/978-3-0346-0414-7_6
Publisher Name: Springer, Basel
Print ISBN: 978-3-0346-0413-0
Online ISBN: 978-3-0346-0414-7
eBook Packages: Life Science and Basic Disciplines (German Language)