Aufgabe 3.8: Nochmals Transinformation
Wir betrachten das Tupel Z=(X,Y), wobei die Einzelkomponenten X und Y jeweils ternäre Zufallsgrößen darstellen:
- X={0, 1, 2},Y={0, 1, 2}.
Die gemeinsame Wahrscheinlichkeitsfunktion PXY(X,Y) beider Zufallsgrößen ist in der oberen Grafik angegeben.
In der Aufgabe 3.8Z wird diese Konstellation ausführlich analysiert. Man erhält als Ergebnis (alle Angaben in „bit”):
- H(X)=H(Y)=log2(3)=1.585,
- H(XY)=log2(9)=3.170,
- I(X,Y)=0,
- H(Z)=H(XZ)=3.170,
- I(X,Z)=1.585.
Desweiteren betrachten wir die Zufallsgröße W={0, 1, 2, 3, 4}, deren Eigenschaften sich aus der Verbundwahrscheinlichkeitsfunktion PXW(X,W) nach der unteren Skizze ergeben. Die Wahrscheinlichkeiten sind in allen weiß hinterlegten Feldern jeweils Null.
Gesucht ist in der vorliegenden Aufgabe die Transinformation zwischen
- den Zufallsgrößen X und W ⇒ I(X;W),
- den Zufallsgrößen Z und W⇒I(Z;W).
Hinweise:
- Die Aufgabe gehört zum Kapitel Verschiedene Entropien zweidimensionaler Zufallsgrößen.
- Insbesondere wird Bezug genommen auf die Seiten
Bedingte Wahrscheinlichkeit und bedingte Entropie sowie
Transinformation zwischen zwei Zufallsgrößen.
Fragebogen
Musterlösung
- Mit X={0, 1, 2}, Y={0, 1, 2} gilt X+Y={0, 1, 2, 3, 4}.
- Auch die Wahrscheinlichkeiten stimmen mit der gegebenen Wahrscheinlichkeitsfunktion überein.
- Die Überprüfung der beiden anderen Vorgaben zeigt, dass auch W=X−Y+2 möglich ist, nicht jedoch W=Y−X+2.
(2) Aus der 2D–Wahrscheinlichkeitsfunktion PXW(X,W) auf der Angabenseite erhält man für
- die Verbundentropie:
- H(XW)=log2(9)=3.170 (bit),
- die Wahrsacheinlichkeitsfunktion der Zufallsgröße W:
- PW(W)=[1/9,2/9,3/9,2/9,1/9],
- die Entropie der Zufallsgröße W:
- H(W)=2⋅19⋅log291+2⋅29⋅log292+39⋅log293=2.197 (bit).
Mit H(X)=1.585 bit (wurde vorgegeben) ergibt sich somit für die Transinformation ("Mutual Information"):
- I(X;W)=H(X)+H(W)−H(XW)=1.585+2.197−3.170=0.612 (bit)_.
Das linke der beiden Schaubilder verdeutlicht die Berechnung der Transinformation I(X;W) zwischen der ersten Komponente X und der Summe W.
(3) Die zweite Grafik zeigt die Verbundwahrscheinlichkeit PZW(⋅).
- Das Schema besteht aus 5·9=45 Feldern im Gegensatz zur Darstellung von PXW(⋅) auf der Angabenseite mit 3·9=27 Feldern.
- Von den 45 Feldern sind aber auch nur neun mit Wahrscheinlichkeiten ungleich Null belegt. Für die Verbundentropie gilt: H(ZW)=3.170 (bit).
- Mit den weiteren Entropien H(Z)=3.170 (bit) und H(W)=2.197 (bit) entsprechend der Aufgabe 3.8Z bzw. der Teilfrage (2) dieser Aufgabe erhält man für die Transinformation:
- I(Z;W)=H(Z)+H(W)−H(ZW)=2.197(bit)_.
(4) Alle drei Aussagen treffen zu, wie aus dem rechten der beiden oberen Schaubilder ersichtlich ist. Wir versuchen eine Interpretation dieser numerischen Ergebnisse:
- Die Verbundwahrscheinlichkeit PZW(⋅) setzt sich ebenso wie PXW(⋅) aus neun gleichwahrscheinlichen Elementen ungleich 0 zusammen. Damit ist offensichtlich, dass auch die Verbundentropien gleich sind ⇒ H(ZW)=H(XW)=3.170 (bit).
- Wenn ich das Tupel Z=(X,Y) kenne, kenne ich natürlich auch die Summe W=X+Y. Damit ist H(W|Z)=0.
- Dagegen ist H(Z|W)≠0. Vielmehr gilt H(Z|W)=H(X|W)=0.973 (bit).
- Die Zufallsgröße W liefert also die genau gleiche Information hinsichtlich des Tupels Z wie für die Einzelkomponente X. Dies ist die verbale Interpretation der Aussage H(Z|W)=H(X|W).
- Die gemeinsame Information von Z und W ⇒ I(Z;W) ist größer als die gemeinsame Information von X und W ⇒ I(X;W), weil H(W|Z)=0 gilt, während H(W|X) ungleich Null ist, nämlich genau so groß ist wie H(X) :
- I(Z;W)=H(W)−H(W|Z)=2.197−0=2.197(bit),
- I(X;W)=H(W)−H(W|X)=2.197−1.585=0.612(bit).