Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Aufgabe 3.15: Data Processing Theorem

Aus LNTwww
Wechseln zu:Navigation, Suche

P ID2818 Inf A 3 14.png

Wir betrachten die folgende Datenverarbeitungskette:

  • Binäre Eingangsdaten X werden durch den Prozessor 1 verarbeitet, der durch bedingte Wahrscheinlichkeiten (PY|X) beschreibbar ist. Dessen Ausgangsgröße ist Y.
  • Ein zweiter Prozessor mit der Zufallsgröße Y am Eingang und der Zufallsgröße Z am Ausgang ist durch PZ|Ygegeben. Z hängt allein von Y ab (entweder deterministisch oder stochastisch) und ist unabhängig von X:

PZ|XY(z|x,y)=PZ|Y(z|y). Hierbei wurde folgende Nomenklatur benutzt: xX={0,1},yY={0,1},zZ={0,1}. Die Verbund–Wahrscheinlichkeitsfunktion (englisch: Joint Probability Mass Function) lautet: PXYZ(x,y,z)=PX(x)PY|X(y|x)PZ|Y(z|y). Das bedeutet auch: XYZ bilden eine Markovkette. Für eine solche gilt das Data Processing Theorem mit folgender Konsequenz: I(X;Z)I(X;Y),I(X;Z)I(Y;Z). Das Theorem besagt somit:

  • Man kann durch Manipulation (Processing) der Daten Y keine zusätzliche Information über den Eingang X gewinnen.
  • Datenverarbeitung (durch den Prozessor 2) dient nur dem Zweck, die Information über X besser sichtbar zu machen.

Hinweis: Die Aufgabe gehört zu Kapitel 3.3.


Fragebogen

1

Wie lässt sich das Ergebnis I(X;Y)=1Hbin(p) herleiten?

Über die Eigenschaften eines streng symmetrischen Kanals.
Weil Hbin(p) eine konkave Funktion ist.
Das Ergebnis gilt für jede Wahrscheinlichkeitsfunktion PX(X).

2

Welche Transinformation ergibt sich für den Prozessor 1 mit p=0.1?

p=0.1:I(X;Y) =

bit

3

Welche Transinformation ergibt sich für den Prozessor 2 mit q=0.2?

q=0.2:I(Y;Z) =

bit

4

Welche Transinformation ergibt sich für das Gesamtsystem?

p=0.1,q=0.2:I(X;Z) =

bit

5

Erfüllt dieses Beispiel das Data Processing Theorem?

ja
nein


Musterlösung

1. Beide Prozessoren beschreiben streng symmetrische Kanäle sowohl gleichmäßig dispersiv als auch gleichmäßig fokussierend. Für einen solchen Binärkanal gilt mit Y={0,1}|Y|=2: I(X;Y)=1+yYPYX(y|x)log2PYX(y|x). Hierbei ist es völlig egal, ob man von X=0 oder von X=1 ausgeht. Für X=0 erhält man mit PY|X(Y=1|X=0)=p und PY|X(Y=0|X=0)=1p: I(X;Y)=1+plog2(p)+(1p)log2(1p)=1Hbin(p), mitHbin(p)=plog21p+(1p)log211p. Das Ergebnis gilt allerdings nur für PX(X)=[0.5,0.5] maximale Transinformation Kanalkapazität. Andernfalls ist I(X;Y) kleiner. Beispielsweise gilt für PX(X)=[1,0]: H(X)=0I(X;Y)=0.

Richtig ist also nur der Lösungsvorschlag 1. Die binäre Entropiefunktion ist zwar konkav, aber diese Eigenschaft wurde bei der Herleitung nicht benutzt.

2. Für den Prozessor 1 ergibt sich mit p=0.1: I(X;Y)=1Hbin(0.1)=10.469=0.531(bit)_.

3. Entsprechend gilt für den zweiten Prozessor mit q=0.2: I(Y;Z)=1Hbin(0.2)=10.722=0.278(bit)_.

4. Die Wahrscheinlichkeit für Z=0 unter der Bedingung X=0 ergibt sich über zwei Wege zu P(Z=0X=0)=(1p)(1q)+pq=1pq+2pq!=1ε. Das Gesamtsystem hat dann die genau gleiche BSC–Struktur wie die Prozessoren 1 und 2, aber nun mit der Verfälschungswahrscheinlichkeit ε=p+q2pq. Für p=0.1 und q=0.2 erhält man ε=0.1+0.220.10.2=0.26 I(X;Z)=1Hbin(0.26)=10.827=0.173(bit)_.


5. Die Antwort ist natürlich JA, da beim Data Processing Theorem genau von den hier gegebenen Voraussetzungen ausgegangen wird. Wir wollen aber zusätzlich einige numerische Ergebnisse auswerten:

  • Gilt 0p<0.5 und 0q<0.5, so erhält man:

varepsilon=p+q(12p)>pI(X;Z)<I(X;Y), ε=q+p(12q)>qI(X;Z)<I(Y;Z).

  • Für p=0.5 gilt unabhängig von q, da I(X; Z) nicht größer sein kann als I(X; Y):

\varepsilon = 0.5 + q \cdot (1-1) = 0.5 \hspace{0.3cm}\Rightarrow \hspace{0.3cm} I(X;Y) = 0 \hspace{0.3cm}\Rightarrow \hspace{0.3cm} I(X;Z) = 0 \hspace{0.05cm}. Ebenso erhält man mit q = 0.5 unabhängig von p: \varepsilon = 0.5 + p \cdot (1-1) = 0.5 \hspace{0.3cm}\Rightarrow \hspace{0.3cm} I(Y;Z) = 0 \hspace{0.3cm}\Rightarrow \hspace{0.3cm} I(X;Z) = 0 \hspace{0.05cm}. Auch für p < 0.5 und q > 0.5 wird das Data Processing Theorem nicht verletzt, was hier nur an einem Beispiel gezeigt werden soll. Mit p = 0.1 und q = 0.8 erhält man das gleiche Ergebnis wie in Teilaufgabe (d): \varepsilon = 0.1 + 0.8 - 2\cdot 0.1 \cdot 0.8 = 0.74 \Rightarrow \hspace{0.3cm} I(X;Z) = 1 - H_{\rm bin}(0.74) = 1 - H_{\rm bin}(0.26) =0.173 \,{\rm (bit)} \hspace{0.05cm}.