Zusammenfassung
In diesem Kapitel betrachten wir stets einen nicht total gestörten Kanal (F,G,(Pij)) mit einem q — nären Eingang F und einem r — nären Ausgang G. Wir wählen auf F eine solche Wahrscheinlichkeitsverteilung \( \overrightarrow {\text{p}} ({\text{F}}) \),daß die mittlere Transinformation Iq(F;G) ihren maximalen Wert, d.h. die (positive) Kanalkapazität K = Iq(F;G), erreicht (vgl. Abschnitt 3.7). Für die Datenübertragung benutzen wir einen Blockcode C ⊂ Fn er Länge n. Wenn wir in den Kanal ein Codewort \( \overrightarrow {\rm{x}} {\rm{ }} \in {\rm{ }}C \) eingeben, so gibt der Kanal das Wort \( \overrightarrow {\rm{y}} {\rm{ }} \in {\rm{ }}{{\rm{G}}^{\rm{n}}} \) mit der a-priori-Wahrscheinlichkeit \( {\rm{p}}(\overrightarrow {\rm{y}} |\overrightarrow {\rm{x}} ) \) aus (vgl. Abschnitt 2.4). Wie in Abschnitt 2.5 beschrieben, versucht der Kanaldecodierer das ursprüngliche Codewort \( \overrightarrow {\rm{x}} \) aus dem empfangenen Wort \( \overrightarrow {\rm{y}} \) mit Hilfe einer bestimmten Decodierregel zu ermitteln. Wir gehen in diesem Kapitel der Frage nach, welche theoretischen Möglichkeiten es gibt, die Decodierfehlerwahrscheinlichkeit unter vorgegebene Schranken zu drücken. In Abschnitt 5.2 präsentieren wir den Shannonschen Kanalcodierungssatzi; dieses Theorem garantiert die Existenz eines Blockcodes C, dessen Informationsrate beliebig dicht unter der Kanalkapazität liegt, und einer Decodierregel, so daß die Decodierfehlerwahrscheinlichkeit für jedes Codewort unter einer vorgegebenen, beliebig kleinen Schranke liegt. Der Beweis dieses Satzes wird in Abschnitt 5.1 vorbereitet. Als wesentliche Hilfsmittel werden die sogenannten stochastischen Codes benutzti das sind Blockcodes einer so exorbitanten Länge n, daß sie keinerlei praktische Bedeutung besitzen. In diesem Sinne ist die Umkehrung des Shannonschen Kanalcodierungssatzes (Abschnitt 5. 3) von größerem praktischen Wert: es ist nicht möglich, Daten über einen gestörten Kanal mit einer beliebig kleinen Decodierfehlerwahrscheinlichkeit zu senden, wenn die Informationsrate des verwendeten Codes über der Kanalkapazität liegt.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 1983 Springer-Verlag Berlin Heidelberg
About this chapter
Cite this chapter
Heise, W., Quattrocchi, P. (1983). Kanalcodierung. In: Informations- und Codierungstheorie. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-96791-7_6
Download citation
DOI: https://doi.org/10.1007/978-3-642-96791-7_6
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-540-12774-1
Online ISBN: 978-3-642-96791-7
eBook Packages: Springer Book Archive