Aufgabe 3.10: Transinformation beim BSC
Aus LNTwww
(Weitergeleitet von 3.10 Transinformation beim BSC)
Wir betrachten den Binary Symmetric Channel (BSC). Für die gesamte Aufgabe gelten die Parameterwerte:
- Verfälschungswahrscheinlichkeit: ε=0.1,
- Wahrscheinlichkeit für 0: p0=0.2,
- Wahrscheinlichkeit für 1: p1=0.8.
Damit lautet die Wahrscheinlichkeitsfunktion der Quelle: PX(X)=(0.2, 0.8) und für die Quellenentropie gilt:
- H(X)=p0⋅log21p0+p1⋅log21p1=Hbin(0.2)=0.7219bit.
In der Aufgabe sollen ermittelt werden:
- die Wahrscheinlichkeitsfunktion der Sinke:
- PY(Y)=(PY(0), PY(1)),
- die Verbundwahrscheinlichkeitsfunktion:
- PXY(X,Y)=(p00p01p10p11),
- die Transinformation:
- I(X;Y)=E[log2PXY(X,Y)PX(X)⋅PY(Y)],
- die Äquivokation:
- H(X∣Y)=E[log21PX∣Y(X∣Y)],
- die Irrelevanz:
- H(Y∣X)=E[log21PY∣X(Y∣X)].
Hinweise:
- Die Aufgabe gehört zum Kapitel Anwendung auf die Digitalsignalübertragung.
- Bezug genommen wird insbesondere auf die Seite Transinformationsberechnung für den Binärkanal.
- In der Aufgabe 3.10Z wird die Kanalkapazität CBSC des BSC–Modells berechnet.
- Diese ergibt sich als die maximale Transinformation I(X; Y) durch Maximierung bezüglich der Wahrscheinlichkeiten p0 bzw. p1=1−p0.
Fragebogen
Musterlösung
(1) Für die gesuchten Größen gilt allgemein bzw. mit den Zahlenwerten p0=0.2 und ε=0.1:
- PXY(0,0)=p0⋅(1−ε)=0.18_,PXY(0,1)=p0⋅ε=0.02_,
- PXY(1,0)=p1⋅ε=0.08_,PXY(1,1)=p1⋅(1−ε)=0.72_.
(2) Allgemein gilt:
- PY(Y)=[Pr(Y=0),Pr(Y=1)]=(p0,p1)⋅(1−εεε1−ε).
Daraus ergeben sich folgende Zahlenwerte:
- Pr(Y=0)=p0⋅(1−ε)+p1⋅ε=0.2⋅0.9+0.8⋅0.1=0.26_,
- Pr(Y=1)=p0⋅ε+p1⋅(1−ε)=0.2⋅0.1+0.8⋅0.9=0.74_.
(3) Für die Transinformation gilt gemäß der Definition mit p0=0.2, p1=0.8 und ε=0.1:
- I(X;Y)=E[log2PXY(X,Y)PX(X)⋅PY(Y)]⇒
- I(X;Y)=0.18⋅log20.180.2⋅0.26+0.02⋅log20.020.2⋅0.74+0.08⋅log20.080.8⋅0.26+0.72⋅log20.720.8⋅0.74=0.3578bit_.
(4) Mit der angegebenen Quellenentropie H(X) erhält man für die Äquivokation:
- H(X∣Y)=H(X)−I(X;Y)=0.7219−0.3578=0.3642bit_.
- Man könnte aber auch die allgemeine Definition mit den Rückschlusswahrscheinlichkeiten PX|Y(⋅) anwenden:
- H(X∣Y)=E[log21PX∣Y(X∣Y)]=E[log2PY(Y)PXY(X,Y)]
- Im Beispiel erhält man auch nach dieser Berechnungsvorschrift das gleiche Ergebnis H(X|Y)=0.3642 bit:
- H(X∣Y)=0.18⋅log20.260.18+0.02⋅log20.740.02+0.08⋅log20.260.08+0.72⋅log20.740.72.
(5) Richtig ist der Lösungsvorschlag 2:
- Bei gestörter Übertragung (ε > 0) ist die Unsicherheit hinsichtlich der Sinke stets größer als die Unsicherheit bezüglich der Quelle. Man erhält hier als Zahlenwert:
- H(Y) = H_{\rm bin}(0.26)={ 0.8268\,{\rm bit}} \hspace{0.05cm}.
- Bei fehlerfreier Übertragung (ε = 0) würde dagegen P_Y(⋅) = P_X(⋅) und H(Y) = H(X) gelten.
(6) Auch hier ist der zweite Lösungsvorschlag richtig:
- Wegen I(X;Y) = H(X) - H(X \hspace{-0.1cm}\mid \hspace{-0.1cm} Y) = H(Y) - H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) ist H(Y|X) um den gleichen Betrag größer als H(X|Y), um den H(Y) größer ist als H(X):
- H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = H(Y) -I(X;Y) = 0.8268 - 0.3578 ={ 0.4690\,{\rm bit}} \hspace{0.05cm}
- Bei direkter Berechnung erhält man das gleiche Ergebnis H(Y|X) = 0.4690\ \rm bit:
- H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = {\rm E} \hspace{0.02cm} \left [ \hspace{0.02cm} {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{\hspace{0.03cm}Y \mid \hspace{0.03cm} X} (Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X)} \right ] = 0.18 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.9} + 0.02 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} + 0.08 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} + 0.72 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.9} \hspace{0.05cm}.