Zusammenfassung
Ein präziser Begriff für Unsicherheit bzw. Informationsgewinn ist bei der kompakten Kodierung von Quellen und der Beschreibung der Leistungsfähigkeit von gestörten Kanälen von großer Bedeutung. Hierbei ist es gleichgültig, ob eine Zufallsexperiment durch die Unsicherheit über den Ausgang vor Ausführung oder den Informationsgewinn nach Bekanntwerden des Ausgangs beurteilt wird. Beide Größen können durch dieselbe Maßzahl gemessen werden, wie durch das folgende einführende Beispiel motiviert wird.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 1996 B. G. Teubner, Stuttgart
About this chapter
Cite this chapter
Mathar, R. (1996). Information und Entropie. In: Informationstheorie. Teubner-Studienbücher : Mathematik. Vieweg+Teubner Verlag. https://doi.org/10.1007/978-3-322-84818-5_3
Download citation
DOI: https://doi.org/10.1007/978-3-322-84818-5_3
Publisher Name: Vieweg+Teubner Verlag
Print ISBN: 978-3-519-02574-0
Online ISBN: 978-3-322-84818-5
eBook Packages: Springer Book Archive