Aufgaben:Aufgabe 4.6: AWGN–Kanalkapazität: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
Zeile 90: Zeile 90:
 
===Musterlösung===
 
===Musterlösung===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
<b>a)</b>&nbsp;&nbsp;Die Gleichung für die AWGN&ndash;Kanalkapazität in &bdquo;bit&rdquo; lautet:
+
'''(1)'''&nbsp; Die Gleichung für die AWGN&ndash;Kanalkapazität in &bdquo;bit&rdquo; lautet:  
$$C_{\rm bit} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_X}{P_N} \right )\hspace{0.05cm}.$$
+
:$$C_{\rm bit} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + {P_X}/{P_N} \right )\hspace{0.05cm}.$$
 
Mit <i>C</i><sub>bit</sub> = 2 ergibt sich daraus:
 
Mit <i>C</i><sub>bit</sub> = 2 ergibt sich daraus:
$$4 \stackrel{!}{=} {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_X}{P_N} \right )
+
:$$4 \stackrel{!}{=} {\rm log}_2\hspace{0.05cm}\left ( 1 + {P_X}/{P_N} \right )
\hspace{0.3cm}\Rightarrow \hspace{0.3cm} 1 + \frac{P_X}{P_N} \stackrel {!}{=} 2^4 = 16
+
\hspace{0.3cm}\Rightarrow \hspace{0.3cm} 1 + {P_X}/{P_N} \stackrel {!}{=} 2^4 = 16
 
\hspace{0.3cm}\Rightarrow \hspace{0.3cm} P_X = 15 \cdot P_N
 
\hspace{0.3cm}\Rightarrow \hspace{0.3cm} P_X = 15 \cdot P_N
 
\hspace{0.15cm}\underline{= 15\,{\rm mW}}
 
\hspace{0.15cm}\underline{= 15\,{\rm mW}}
 
\hspace{0.05cm}. $$
 
\hspace{0.05cm}. $$
<b>b)</b>&nbsp;&nbsp;Richtig sind die <u>Lösungsvorschläge 1 bis 4</u>. Begründung:
+
 
:* Für <i>P<sub>X</sub></i> < 15 mW wird die Transinformation <i>I</i>(<i>X</i>; <i>Y</i>) stets kleiner als 2 bit sein, unabhängig von allen anderen Gegebenheiten.
+
'''(2)'''&nbsp; Richtig sind die <u>Lösungsvorschläge 1 bis 4</u>. Begründung:
:* Mit <i>P<sub>X</sub></i> = 15 mW ist die maximale Transinformation <i>I</i>(<i>X</i>; <i>Y</i>) = 2 bit nur  erreichbar, wenn die Eingangsgröße <i>X</i> gaußverteilt ist.  Die Ausgangsgröße <i>Y</i> ist dann ebenfalls gaußverteilt.
+
* Für <i>P<sub>X</sub></i> < 15 mW wird die Transinformation <i>I</i>(<i>X</i>; <i>Y</i>) stets kleiner als 2 bit sein, unabhängig von allen anderen Gegebenheiten.
:* Weist die Zufallsgröße <i>X</i> einen Gleichanteil <i>m<sub>X</sub></i> auf, so ist die Varianz <i>&sigma;<sub>X</sub></i><sup>2</sup> = <i>P<sub>X</sub></i> &ndash; <i>m<sub>X</sub></i><sup>2</sup> bei gegebenem <i>P<sub>X</sub></i> &nbsp;kleiner, und es gilt <i>I</i>(<i>X</i>;<i>Y</i>) = 1/2 &middot; log<sub>2</sub> (1 + <i>&sigma;<sub>X</sub></i><sup>2</sup>/<i>P<sub>N</sub></i>) < 2 bit.
+
* Mit <i>P<sub>X</sub></i> = 15 mW ist die maximale Transinformation <i>I</i>(<i>X</i>; <i>Y</i>) = 2 bit nur  erreichbar, wenn die Eingangsgröße <i>X</i> gaußverteilt ist.  Die Ausgangsgröße <i>Y</i> ist dann ebenfalls gaußverteilt.
:*  Voraussetzung für die gegebene Kanalkapazitätsgleichung ist, dass <i>X</i> und <i>N</i> unkorreliert sind. Wären dagegen die Zufallsgrößen <i>X</i> und <i>Y</i> unkorreliert, so ergäbe sich <i>I</i>(<i>X</i>; <i>Y</i>) = 0.
+
* Weist die Zufallsgröße <i>X</i> einen Gleichanteil <i>m<sub>X</sub></i> auf, so ist die Varianz <i>&sigma;<sub>X</sub></i><sup>2</sup> = <i>P<sub>X</sub></i> &ndash; <i>m<sub>X</sub></i><sup>2</sup> bei gegebenem <i>P<sub>X</sub></i> &nbsp;kleiner, und es gilt <i>I</i>(<i>X</i>;<i>Y</i>) = 1/2 &middot; log<sub>2</sub> (1 + <i>&sigma;<sub>X</sub></i><sup>2</sup>/<i>P<sub>N</sub></i>) < 2 bit.
<b>c)</b>&nbsp;&nbsp;Die angegebene Gleichung für die differentielle Entropie macht nur bei dimensionsloser Leistung Sinn. Mit der vorgeschlagenen Normierung erhält man:
+
*  Voraussetzung für die gegebene Kanalkapazitätsgleichung ist, dass <i>X</i> und <i>N</i> unkorreliert sind. Wären dagegen die Zufallsgrößen <i>X</i> und <i>Y</i> unkorreliert, so ergäbe sich <i>I</i>(<i>X</i>; <i>Y</i>) = 0.
 +
 
 +
 
 
[[Datei: P_ID2901__Inf_A_4_6c.png |right|frame|Informationstheoretische Größen für den AWGN-Kanal]]
 
[[Datei: P_ID2901__Inf_A_4_6c.png |right|frame|Informationstheoretische Größen für den AWGN-Kanal]]
:* <i>P<sub>N</sub></i> = 1 mW &nbsp;&#8658;&nbsp; <i>P'<sub>N</sub></i> = 1:
+
'''(3)'''&nbsp; Die angegebene Gleichung für die differentielle Entropie macht nur bei dimensionsloser Leistung Sinn. Mit der vorgeschlagenen Normierung erhält man:
$$h(N) \  =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 1 \right ) $$ $$
+
* Für <i>P<sub>N</sub></i> = 1 mW &nbsp;&#8658;&nbsp; <i>P'<sub>N</sub></i> = 1:
 +
:$$h(N) \  =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 1 \right )  
 
   =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 17.08 \right )
 
   =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 17.08 \right )
 
\hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm},$$
 
\hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm},$$
:*<i>P<sub>X</sub></i> = 15 mW &nbsp;&#8658;&nbsp; <i>P&prime;<sub>X</sub></i> = 15:
+
* Für <i>P<sub>X</sub></i> = 15 mW &nbsp;&#8658;&nbsp; <i>P&prime;<sub>X</sub></i> = 15:
$$h(X) \  =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 15 \right ) $$
+
:$$h(X) \  =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 15 \right )   =  {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e}  \right ) +  
$$  =  {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e}  \right ) +  
+
{1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left (15 \right )  
{1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left (15 \right ) $$
 
$$ =  \ 2.047\,{\rm bit} + 1.953\,{\rm bit}
 
 
\hspace{0.15cm}\underline{= 4.000\,{\rm bit}}\hspace{0.05cm}, $$
 
\hspace{0.15cm}\underline{= 4.000\,{\rm bit}}\hspace{0.05cm}, $$
:*  <i>P<sub>Y</sub></i> = <i>P<sub>X</sub></i> + <i>P<sub>N</sub></i> = 16 mW &nbsp;&#8658;&nbsp; <i>P&prime;<sub>Y</sub></i> = 16:
+
Für <i>P<sub>Y</sub></i> = <i>P<sub>X</sub></i> + <i>P<sub>N</sub></i> = 16 mW &nbsp;&#8658;&nbsp; <i>P&prime;<sub>Y</sub></i> = 16:
$$h(Y) = 2.047\,{\rm bit} + 2.000\,{\rm bit}
+
:$$h(Y) = 2.047\,{\rm bit} + 2.000\,{\rm bit}
 
\hspace{0.15cm}\underline{= 4.047\,{\rm bit}}\hspace{0.05cm}.$$
 
\hspace{0.15cm}\underline{= 4.047\,{\rm bit}}\hspace{0.05cm}.$$
<b>d)</b>&nbsp;&nbsp;Für die differentielle Irrelevanz gilt beim AWGN&ndash;Kanal:
+
 
$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(N) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}.$$
+
 
 +
'''(4)'''&nbsp; Für die differentielle Irrelevanz gilt beim AWGN&ndash;Kanal:
 +
:$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(N) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}.$$
 
Entsprechend nebenstehender Grafik gilt aber auch:
 
Entsprechend nebenstehender Grafik gilt aber auch:
$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(Y) - I(X;Y) = 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}. $$
+
:$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(Y) - I(X;Y) = 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}. $$
Entsprechend kann die differentielle Äquivokation wie folgt berechnet werden:
+
Daraus kann die differentielle Äquivokation wie folgt berechnet werden:
$$h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) = h(X) - I(X;Y) = 4.000 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.000\,{\rm bit}}\hspace{0.05cm}.$$
+
:$$h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) = h(X) - I(X;Y) = 4.000 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.000\,{\rm bit}}\hspace{0.05cm}.$$
 +
 
 
Abschließend wird auch noch die differentielle Verbundentropie angegeben, die aus obigem Schaubild nicht direkt ablesbar ist:
 
Abschließend wird auch noch die differentielle Verbundentropie angegeben, die aus obigem Schaubild nicht direkt ablesbar ist:
$$h(XY) = h(X) + h(Y) - I(X;Y) = 4.000 \,{\rm bit} + 4.047 \,{\rm bit}  - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 6.047\,{\rm bit}}\hspace{0.05cm}.$$
+
:$$h(XY) = h(X) + h(Y) - I(X;Y) = 4.000 \,{\rm bit} + 4.047 \,{\rm bit}  - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 6.047\,{\rm bit}}\hspace{0.05cm}.$$
 +
 
 
[[Datei: P_ID2900__Inf_A_4_6e.png |right|frame|Informationstheoretische Größen beim idealen Kanal]]
 
[[Datei: P_ID2900__Inf_A_4_6e.png |right|frame|Informationstheoretische Größen beim idealen Kanal]]
<b>e)</b>&nbsp;&nbsp;Bei einem idealen Kanal erhält man mit <u><i>h</i>(<i>X</i>) = 4 bit</u>:
+
'''(5)'''&nbsp; Bei einem idealen Kanal erhält man mit <u><i>h</i>(<i>X</i>) = 4 bit</u>:
$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) \  =  \ h(N) \hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm},$$ $$
+
:$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) \  =  \ h(N) \hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm},$$  
h(Y) \  =  \ h(X) \hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$ $$
+
:$$h(Y) \  =  \ h(X) \hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$
I(X;Y) \  =  \ h(Y) - h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X)\hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$ $$
+
:$$I(X;Y) \  =  \ h(Y) - h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X)\hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$ $$
 
h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) \  =  \ h(X) - I(X;Y)\hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm}.$$
 
h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) \  =  \ h(X) - I(X;Y)\hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm}.$$
 +
 
Die Grafik zeigt diese Größen in einem Flussdiagramm.
 
Die Grafik zeigt diese Größen in einem Flussdiagramm.
  
<br><br><br>
+
 
 
Das gleiche Diagramm ergäbe sich auch im wertdiskreten Fall mit <i>M</i> = 16 gleichwahrscheinlichen Symbolen &nbsp;&#8658;&nbsp; <i>H</i>(<i>X</i>) = 4 bit. Man müsste nur jedes &bdquo;<i>h</i>&rdquo; durch ein &bdquo;<i>H</i>&rdquo; ersetzen.
 
Das gleiche Diagramm ergäbe sich auch im wertdiskreten Fall mit <i>M</i> = 16 gleichwahrscheinlichen Symbolen &nbsp;&#8658;&nbsp; <i>H</i>(<i>X</i>) = 4 bit. Man müsste nur jedes &bdquo;<i>h</i>&rdquo; durch ein &bdquo;<i>H</i>&rdquo; ersetzen.
<br><br>
 
  
x
 
 
{{ML-Fuß}}
 
{{ML-Fuß}}
  

Version vom 12. Juni 2017, 13:15 Uhr

Flussdiagramm der Information

Wir gehen vom AWGN-Kanalmodell aus:

  • $X$ kennzeichnet den Eingang (Sender).
  • $N$ steht für eine gaußverteilte Störung.
  • $Y = X +N$ beschreibt den Ausgang (Empfänger) bei additiver Störung.

Für die Wahrscheinlichkeitsdichtefunktion der Störung gelte:

$$f_N(n) = \frac{1}{\sqrt{2\pi \hspace{0.03cm}\sigma_{\hspace{-0.05cm}N}^2}} \cdot {\rm e}^{ - \hspace{0.05cm}{n^2}\hspace{-0.05cm}/{(2 \hspace{0.03cm} \sigma_{\hspace{-0.05cm}N}^2) }} \hspace{0.05cm}.$$

Da die Zufallsgröße $N$ mittelwertfrei ist   ⇒   $m_{N} = 0$, kann man die Varianz $\sigma_{\hspace{-0.05cm}N}^2$ mit der Leistung $P_N$ gleichsetzen. In diesem Fall ist die differentielle Entropie der Zufallsgröße $N$ wie folgt angebbar (mit der Pseudo–Einheit „bit”):

$$h(N) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot P_N \right )\hspace{0.05cm}.$$

In dieser Aufgabe wird $P_N = 1 \rm mW$ vorgegeben. Dabei ist zu beachten:

  • Die Leistung $P_N$ in obiger Gleichung muss wie die Varianz $\sigma_{\hspace{-0.05cm}N}^2$ dimensionslos sein.
  • Um mit dieser Gleichung arbeiten zu können, muss die physikalische Größe $P_N$ geeignet normiert werden, zum Beispiel entsprechend $P_N = 1 \rm mW$   ⇒   $P_N' = 1$.
  • Bei anderer Normierung, beispielsweise $P_N = 1 \rm mW$   ⇒   $P_N' = 0.001$ ergäbe sich für $h(N)$ ein völlig anderer Zahlenwert.


Weiter können Sie bei der Lösung dieser Aufgabe berücksichtigen:

  • Die Kanalkapazität ist definiert als die maximale Transinformation zwischen Eingang $X$ und Ausgang $Y$ bei bestmöglicher Eingangsverteilung:
$$C = \max_{\hspace{-0.15cm}f_X:\hspace{0.05cm} {\rm E}[X^2] \le P_X} \hspace{-0.2cm} I(X;Y) \hspace{0.05cm}.$$
  • Die Kanalkapazität des AWGN–Kanals lautet:
$$C_{\rm AWGN} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_X}{P_N} \right ) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P\hspace{0.05cm}'_{\hspace{-0.05cm}X}}{P\hspace{0.05cm}'_{\hspace{-0.05cm}N}} \right )\hspace{0.05cm}.$$
Daraus ist ersichtlich, dass die die Kanalkapazität $C$ und auch die Transinformation $I(X; Y)$ im Gegensatz zu den differentiellen Entropien unabhängig von obiger Normierung ist.
  • Bei gaußförmiger Stör–WDF $f_N(n)$ führt eine ebenfalls gaußförmige Eingangs–WDF $f_X(x)$ zur maximalen Transinformation und damit zur Kanalkapazität.


Hinweise:

  • Die Aufgabe gehört zum Kapitel AWGN–Kanalkapazität bei wertkontinuierlichem Eingang.
  • Da die Ergebnisse in „bit” angegeben werden sollen, wird in den Gleichungen „log”  ⇒  „log2” verwendet.
  • Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.


Fragebogen

1

Welche Sendeleistung ist für $C = 2 \ \rm bit$ erforderlich?

$P_X \ = \ $

$\ \rm mW$

2

Unter welchen Voraussetzungen ist $I(X; Y) = 2 \ \rm bit$ überhaupt erreichbar?

$P_X$ ist wie unter (1) ermittelt oder größer.
Die Zufallsgröße $X$ ist gaußverteilt.
Die Zufallsgröße $X$ ist mittelwertfrei.
Die Zufallsgrößen $X$ und $N$ sind unkorreliert.
Die Zufallsgrößen $X$ und $Y$ sind unkorreliert.

3

Berechnen Sie die differentiellen Entropien der Zufallsgrößen $N$, $X$ und $Y$ bei geeigneter Normierung, zum Beispiel $P_N = 1 \rm mW$   ⇒   $P_N' = 1$.

$h(N) \ = \ $

$\ \rm bit$
$h(X) \ = \ $

$\ \rm bit$
$h(Y) \ = \ $

$\ \rm bit$

4

Wie lauten die weiteren informationstheoretischen Beschreibungsgrößen?

$h(Y|X) \ = \ $

$\ \rm bit$
$h(X|Y) \ = \ $

$\ \rm bit$
$h(XY) \ = \ $

$\ \rm bit$

5

Welche Größen ergäben sich bei gleichem $P_X$ im Grenzfall $P_N ' \to 0$ ?

$h(X) \ = \ $

$\ \rm bit$
$h(Y|X) \ = \ $

$\ \rm bit$
$h(Y) \ = \ $

$\ \rm bit$
$I(X;Y) \ = \ $

$\ \rm bit$
$h(X|Y) \ = \ $

$\ \rm bit$


Musterlösung

(1)  Die Gleichung für die AWGN–Kanalkapazität in „bit” lautet:

$$C_{\rm bit} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + {P_X}/{P_N} \right )\hspace{0.05cm}.$$

Mit Cbit = 2 ergibt sich daraus:

$$4 \stackrel{!}{=} {\rm log}_2\hspace{0.05cm}\left ( 1 + {P_X}/{P_N} \right ) \hspace{0.3cm}\Rightarrow \hspace{0.3cm} 1 + {P_X}/{P_N} \stackrel {!}{=} 2^4 = 16 \hspace{0.3cm}\Rightarrow \hspace{0.3cm} P_X = 15 \cdot P_N \hspace{0.15cm}\underline{= 15\,{\rm mW}} \hspace{0.05cm}. $$

(2)  Richtig sind die Lösungsvorschläge 1 bis 4. Begründung:

  • Für PX < 15 mW wird die Transinformation I(X; Y) stets kleiner als 2 bit sein, unabhängig von allen anderen Gegebenheiten.
  • Mit PX = 15 mW ist die maximale Transinformation I(X; Y) = 2 bit nur erreichbar, wenn die Eingangsgröße X gaußverteilt ist. Die Ausgangsgröße Y ist dann ebenfalls gaußverteilt.
  • Weist die Zufallsgröße X einen Gleichanteil mX auf, so ist die Varianz σX2 = PXmX2 bei gegebenem PX  kleiner, und es gilt I(X;Y) = 1/2 · log2 (1 + σX2/PN) < 2 bit.
  • Voraussetzung für die gegebene Kanalkapazitätsgleichung ist, dass X und N unkorreliert sind. Wären dagegen die Zufallsgrößen X und Y unkorreliert, so ergäbe sich I(X; Y) = 0.


Informationstheoretische Größen für den AWGN-Kanal

(3)  Die angegebene Gleichung für die differentielle Entropie macht nur bei dimensionsloser Leistung Sinn. Mit der vorgeschlagenen Normierung erhält man:

  • Für PN = 1 mW  ⇒  P'N = 1:
$$h(N) \ = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 1 \right ) = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 17.08 \right ) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm},$$
  • Für PX = 15 mW  ⇒  P′X = 15:
$$h(X) \ = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 15 \right ) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \right ) + {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left (15 \right ) \hspace{0.15cm}\underline{= 4.000\,{\rm bit}}\hspace{0.05cm}, $$
  • Für PY = PX + PN = 16 mW  ⇒  P′Y = 16:
$$h(Y) = 2.047\,{\rm bit} + 2.000\,{\rm bit} \hspace{0.15cm}\underline{= 4.047\,{\rm bit}}\hspace{0.05cm}.$$


(4)  Für die differentielle Irrelevanz gilt beim AWGN–Kanal:

$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(N) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}.$$

Entsprechend nebenstehender Grafik gilt aber auch:

$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(Y) - I(X;Y) = 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}. $$

Daraus kann die differentielle Äquivokation wie folgt berechnet werden:

$$h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) = h(X) - I(X;Y) = 4.000 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.000\,{\rm bit}}\hspace{0.05cm}.$$

Abschließend wird auch noch die differentielle Verbundentropie angegeben, die aus obigem Schaubild nicht direkt ablesbar ist:

$$h(XY) = h(X) + h(Y) - I(X;Y) = 4.000 \,{\rm bit} + 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 6.047\,{\rm bit}}\hspace{0.05cm}.$$
Informationstheoretische Größen beim idealen Kanal

(5)  Bei einem idealen Kanal erhält man mit h(X) = 4 bit:

$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) \ = \ h(N) \hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm},$$
$$h(Y) \ = \ h(X) \hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$
$$I(X;Y) \ = \ h(Y) - h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X)\hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$ $$ h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) \ = \ h(X) - I(X;Y)\hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm}.$$

Die Grafik zeigt diese Größen in einem Flussdiagramm.


Das gleiche Diagramm ergäbe sich auch im wertdiskreten Fall mit M = 16 gleichwahrscheinlichen Symbolen  ⇒  H(X) = 4 bit. Man müsste nur jedes „h” durch ein „H” ersetzen.