Skip to main content

Part of the book series: Kommunikation und Kybernetik in Einzeldarstellungen ((COMMUNICATION,volume 6))

  • 57 Accesses

Zusammenfassung

Den Überlegungen zur Wahrscheinlichkeit in § 12 war ein System zugrundegelegt worden, das auf ein bestimmtes Ereignis A mit einem Ergebnis B i aus der Menge (B) von möglichen Ergebnissen antwortet. Welches Ergebnis ausgewählt wird, ist für den Beobachter entweder grundsätzlich (bei physikalischen Mikroprozessen oder bei Zufallsmechanismen) oder aber aus Mangel an Wissen eine Entscheidung des Zufalls. In der Vorstellung der Informationstheorie1 erzeugt diese Entscheidung des Zufalls eine Information; dem Beobachter wird diese Information in dem Augenblick zugeführt, wo er diese Entscheidung unmißverständlich sicher erfährt. (Später werden auch unsichere Mitteilungen einbezogen werden, s. § 51.)

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 44.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 59.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Shannon, C. E.: The Mathematical Theory of Communication. Urbana: The University of Illinois Press 1949.

    MATH  Google Scholar 

  2. Dies wird im allgemeinen die Häufigkeit (also doch!) sein. (S. § 23.)

    Google Scholar 

  3. Shannon, C. E.: The Mathematical Theory of Communication. 20. 9. Aufl. Urbana: The Unversity of Illinois Press 1962. »Quantities of the form\( H = - \Sigma {p_i} \) log p i (the constant K only amounts to a choice of a unit of measure) play a central role in information theory as measures of information, choice and uncertainty. The form of H will be recognized as defined in certain formulas of statistical mechanics where p i is the probability of a system being in cell i of its phase space.«

    Google Scholar 

  4. Duschek, A.: Vorlesungen über höhere Mathematik. III, 226. Wien: Springer 1953.

    MATH  Google Scholar 

  5. Duschek, A.: Vorlesungen über höhere Mathematik. II, 138. Wien: Springer 1950.

    MATH  Google Scholar 

  6. Siehe auch: Goldman, S.: Information Theory. 2. Aufl. 131. New York: Prentice Hall 1954.

    Google Scholar 

  7. Das Fischer-Lexikon: Sprachen. 56. Frankfurt: Fischer-Bücherei 1961.

    Google Scholar 

  8. Auch diese Bezeichnung ist nicht logisch, denn es handelt sich wieder um den Erwartungswert einer Information, also um eine Entropie. H. Piloty schlägt deshalb für diesen Begriff die Bezeichnung: Synentropie vor.

    Google Scholar 

  9. Berger, E. R.: Nachrichtentheorie und Codierung in: Steinbuch, K.: Taschenbuch der Nachrichtenverarbeitung. Berlin-Göttingen-Heidelberg: Springer 1962.

    Google Scholar 

  10. Shannon, O. E.: The Mathematical Theory of Communication, 9. Aufl. 38. Urbana: The University of Illinois Press 1962.

    Google Scholar 

  11. Fano, R. M.: Transmission of Information. 138. New York: MIT-Press 1961.

    Google Scholar 

  12. Shannon läßt in seinem Buch The Mathematical of Communication Urbana, 9. Aufl. 1962, S. 39 auch das Gleichheitszeichen in HC zu. Wie der Beweis zeigt, muß dies ein Irrtum sein.

    Google Scholar 

  13. Shannon, C. E.: The Mathematical Theory of Communication. 9 Aufl. 40. Urbana: The University of Illinois Press 1962.

    Google Scholar 

  14. Elias, P.: Coding and Decoding. 324. in: Baghdady, E. J.: Lectures on Communication System Theory. New York: McGraw-Hill 1961

    Google Scholar 

  15. Die folgende Liste nennt nur einige Beispiele: Baghdady, E. J.: Lectures on Communication Systems Theory. New York: McGraw-Hill 1961.

    Google Scholar 

  16. Hoffmann, W.: Digitale Informationswandler. Braunschweig: Friedr. Vieweg & Sohn 1962.

    MATH  Google Scholar 

  17. Steinbuch, K.: Taschenbuch der Nachrichtenverarbeitung. Berlin-Göttingen-Heidelberg: Springer 1962.

    Google Scholar 

  18. Wolfowitz, J.: Coding Theorems of Information Theory. I. Aufl. Berlin-Göttingen-Heidelberg-New York: Springer 1961.

    MATH  Google Scholar 

  19. Z. B.: Richards, R. K.: Arithmetic Operations in Digital Computers. 7. Aufl. Princeton: Van Nostrand 1958.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 1967 Springer-Verlag Berlin · Heidelberg

About this chapter

Cite this chapter

Peters, J. (1967). Grundlagen der Informationstheorie. In: Einführung in die allgemeine Informationstheorie. Kommunikation und Kybernetik in Einzeldarstellungen, vol 6. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-86500-8_5

Download citation

  • DOI: https://doi.org/10.1007/978-3-642-86500-8_5

  • Publisher Name: Springer, Berlin, Heidelberg

  • Print ISBN: 978-3-642-49098-9

  • Online ISBN: 978-3-642-86500-8

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics