Zusammenfassung
Gegenüber der Umgangssprache hat der Begriff der Information in Mathematik und Informatik eine eingeengte Bedeutung: Das subjektive Interesse an einer Nachricht bleibt unberücksichtigt. Der Zahlenwert der Information soil nur von der Wahrscheinlichkeit der Quellensignale abhängen (objektives Maß; s. 7.1(i).) Der Informationszuwachs nach Kenntnis eines Signals wird als Abbau der vorher bestehenden Unsicherheit über das Eintreffen aufgefaßt; je kleiner die Wahrscheinlichkeit ist, desto größer die Unsicherheit und desto größer die Information als deren Beseitigung. Unterscheiden sich die Wahrscheinlichkeiten zweier Nachrichten nur geringfügig, so soll das auch für ihren Informationsgehalt gelten (vgl. 7.1(ii)). Die Gesamtinformation zweier voneinander unabhängig durch die Quelle gelieferter Signale soll sich außerdem additiv aus den Einzelinformationen zusammensetzen (vgl. 7.1(iii)). So kommt man zu
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsPreview
Unable to display preview. Download preview PDF.
Literaturhinweise
Bauer & Goos [1971] oder [1982], Cramer et alii [1989], Duske & Jürgensen [1977] 1.1, Guiasu & Shenitzer [1985], Jaglom & Jaglom [1965], Kameda & Weihrauch [1973], Massey [1983], McEliece [1977], Schulz [1988], Topsœ [1974].
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 1991 Friedr. Vieweg & Sohn Verlagsgesellschaft mbH, Braunschweig/Wiesbaden
About this chapter
Cite this chapter
Schulz, RH. (1991). Information, Entropie und Codierungsaufwand. In: Codierungstheorie. Vieweg+Teubner Verlag. https://doi.org/10.1007/978-3-322-91939-7_7
Download citation
DOI: https://doi.org/10.1007/978-3-322-91939-7_7
Publisher Name: Vieweg+Teubner Verlag
Print ISBN: 978-3-528-06419-8
Online ISBN: 978-3-322-91939-7
eBook Packages: Springer Book Archive