Skip to main content

Information, Entropie und Codierungsaufwand

  • Chapter
  • 61 Accesses

Zusammenfassung

Gegenüber der Umgangssprache hat der Begriff der Information in Mathematik und Informatik eine eingeengte Bedeutung: Das subjektive Interesse an einer Nachricht bleibt unberücksichtigt. Der Zahlenwert der Information soil nur von der Wahrscheinlichkeit der Quellensignale abhängen (objektives Maß; s. 7.1(i).) Der Informationszuwachs nach Kenntnis eines Signals wird als Abbau der vorher bestehenden Unsicherheit über das Eintreffen aufgefaßt; je kleiner die Wahrscheinlichkeit ist, desto größer die Unsicherheit und desto größer die Information als deren Beseitigung. Unterscheiden sich die Wahrscheinlichkeiten zweier Nachrichten nur geringfügig, so soll das auch für ihren Informationsgehalt gelten (vgl. 7.1(ii)). Die Gesamtinformation zweier voneinander unabhängig durch die Quelle gelieferter Signale soll sich außerdem additiv aus den Einzelinformationen zusammensetzen (vgl. 7.1(iii)). So kommt man zu

This is a preview of subscription content, log in via an institution.

Buying options

Chapter
USD   29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD   54.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever

Tax calculation will be finalised at checkout

Purchases are for personal use only

Learn about institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literaturhinweise

  • Bauer & Goos [1971] oder [1982], Cramer et alii [1989], Duske & Jürgensen [1977] 1.1, Guiasu & Shenitzer [1985], Jaglom & Jaglom [1965], Kameda & Weihrauch [1973], Massey [1983], McEliece [1977], Schulz [1988], Topsœ [1974].

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 1991 Friedr. Vieweg & Sohn Verlagsgesellschaft mbH, Braunschweig/Wiesbaden

About this chapter

Cite this chapter

Schulz, RH. (1991). Information, Entropie und Codierungsaufwand. In: Codierungstheorie. Vieweg+Teubner Verlag. https://doi.org/10.1007/978-3-322-91939-7_7

Download citation

  • DOI: https://doi.org/10.1007/978-3-322-91939-7_7

  • Publisher Name: Vieweg+Teubner Verlag

  • Print ISBN: 978-3-528-06419-8

  • Online ISBN: 978-3-322-91939-7

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics