Skip to main content

Die Entropiefunktion

  • Chapter
Informationstheorie

Part of the book series: Teubner Studienbücher ((TSBMA))

  • 114 Accesses

Zusammenfassung

Die mathematische Disziplin, die heutzutage Informationstheorie heißt, wurde erst vor 25 Jahren durch den amerikanischen Ingenieur C. E. Shannon begründet. Shannon nannte seine bahnbrechende Arbeit „A mathematical theory of communication“. Erst später hat die Bezeichnung „Informationstheorie“ Eingang gefunden. Diese Bezeichnung ist nicht ganz zutreffend, denn sie kann höhere Erwartungen wecken als die Theorie erfüllen kann. Es ist daher wichtig, darauf hinzuweisen, daß die Theorie nichts über die Bedeutung, den Inhalt oder den Wert einer Mitteilung (einer „Information“) aussagt. Sie gibt nur Aufschluß über Zusammenhänge, die durch die statistische Struktur bestimmt sind. Daher wird sich der große Unterschied, der in sprachlich-semantischer Hinsicht zwischen Sätzen wie „Es besteht Aussicht auf Regen“ und „Karthago ist gefallen“ besteht, in einer informationstheoretischen Analyse nicht bemerkbar machen.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 49.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 44.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Wir halten es für zweckmäßig, die Abhängigkeit von k in der Wahrscheinlichkeitsfunktion nicht zum Ausdruck kommen zu lassen.

    Google Scholar 

  2. Obwohl zu diesem trivialen Baum kein Code gehört, nennen wir ihn doch einen Codebaum.

    Google Scholar 

  3. Über fehlerentdeckende und fehlerkorrigierende Codes gibt es genügend Literatur. Hier wollen wir nicht näher darauf eingehen.

    Google Scholar 

  4. Diese Häufigkeiten brauchen für den betreffenden Zweck nicht unbedingt am besten geeignet zu sein. Z.B. ist ein Text, auf den man in Verbindung mit Rechenmaschinen stößt, oft eine Beschreibung eines mathematischen Programms und hat daher eine Tendenz zu höheren Häufigkeiten von Buchstaben wie x, y und z.

    Google Scholar 

  5. Aus dem Artikel von Spang-Hanssen,H. in: Nyt fra Sprognaevnet, März 1970, mit Genehmigung des Verfassers.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 1974 B.G. Teubner, Stuttgart

About this chapter

Cite this chapter

Topsøe, F. (1974). Die Entropiefunktion. In: Informationstheorie. Teubner Studienbücher. Vieweg+Teubner Verlag, Wiesbaden. https://doi.org/10.1007/978-3-322-94886-1_1

Download citation

  • DOI: https://doi.org/10.1007/978-3-322-94886-1_1

  • Publisher Name: Vieweg+Teubner Verlag, Wiesbaden

  • Print ISBN: 978-3-519-02048-6

  • Online ISBN: 978-3-322-94886-1

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics