Zusammenfassung
Gegeben sei ein endliches Wahrscheinlichkeitsfeld mit den E lementarereignissen
und den entsprechenden Wahrscheinlichkeiten
Jedes Wahrscheinlichkeitsfeld, jeder dem Zufall unterworfene Versuch enthält nun definitionsgemäß eine gewisse Unbestimmtheit. Man kann eben vor Beobachtung und Erkennung des Versuchsausganges nicht sagen, welches Resultat erhalten wird. Offensichtlich hängt aber diese Unbestimmtheit von der Größe der Wahrscheinlichkeiten ab, man wird
bei eine geringere Unbestimmtheit des Versuchsausganges sehen, als bei
bei
wird das Maß der Unbestimmtheit zwischen denen der Versuche (3) und (4) liegen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Rights and permissions
Copyright information
© 1965 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Henze, E. (1965). Die Entropie. In: Einführung in die Informationstheorie. Elektronische Datenverarbeitung, vol 3. Vieweg+Teubner Verlag, Wiesbaden. https://doi.org/10.1007/978-3-322-98684-9_2
Download citation
DOI: https://doi.org/10.1007/978-3-322-98684-9_2
Publisher Name: Vieweg+Teubner Verlag, Wiesbaden
Print ISBN: 978-3-322-98051-9
Online ISBN: 978-3-322-98684-9
eBook Packages: Springer Book Archive