Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Aufgabe 3.7: Einige Entropieberechnungen

Aus LNTwww
(Weitergeleitet von 3.7 Einige Entropieberechnungen)
Wechseln zu:Navigation, Suche

Schaubild:
Entropien und Transinformation

Wir betrachten die beiden Zufallsgrößen  XY  und  UV  mit den folgenden 2D-Wahrscheinlichkeitsfunktionen:

PXY(X,Y)=(0.180.160.020.64)
PUV(U,V)=(0.0680.1320.2720.528)

Für die Zufallsgröße  XY  sollen in dieser Aufgabe berechnet werden:

  • die Verbundentropie  (englisch:  "Joint Entropy"):
H(XY)=E[log2PXY(X,Y)],
  • die beiden Einzelentropien:
H(X)=E[log2PX(X)],
H(Y)=E[log2PY(Y)].

Daraus lassen sich gemäß dem obigen Schema – dargestellt für die Zufallsgröße  XY – auch folgende Beschreibungsgrößen sehr einfach bestimmen:

  • die bedingten Entropien  (englisch:  "Conditional Entropies"):
H(X|Y)=E[log2PX|Y(X|Y)],
H(Y|X)=E[log2PY|X(Y|X)],
  • die Transinformation  (englisch:  "Mutual Information") zwischen X und Y:
I(X;Y)=E[log2PXY(X,Y)PX(X)PY(Y)].

Abschließend sind qualitative Aussagen hinsichtlich der zweiten Zufallsgröße  UV  zu verifizieren.




Hinweise:


Fragebogen

1

Berechnen Sie die Verbundentropie.

H(XY) = 

 bit

2

Welche Entropien weisen die 1D–Zufallsgrößen  X  und  Y  auf?

H(X) = 

 bit
H(Y) = 

 bit

3

Wie groß ist die Transinformation zwischen den Zufallsgrößen  X  und  Y?

I(X;Y) = 

 bit

4

Berechnen Sie die beiden bedingten Entropien.

H(X|Y) = 

 bit
H(Y|X) = 

 bit

5

Welche der folgenden Aussagen treffen für die 2D–Zufallsgröße  UV  zu?

Die 1D–Zufallsgrößen  U  und  V  sind statistisch unabhängig.
Die gemeinsame Information von  U  und  V  ist  I(U;V)=0.
Für die Verbundentropie gilt  H(UV)=H(XY).
Es gelten die Beziehungen  H(U|V)=H(U)  und  H(V|U)=H(V).


Musterlösung

(1)  Aus der gegebenen Verbundwahrscheinlichkeit erhält man

H(XY)=0.18log210.18+0.16log210.16+0.02log210.02+0.64log210.64=1.393(bit)_.


(2)  Die 1D–Wahrscheinlichkeitsfunktionen lauten  PX(X)=[0.2, 0.8]  und  PY(Y)=[0.34, 0.66].  Daraus folgt:

H(X)=0.2log210.2+0.8log210.8=0.722(bit)_,
H(Y)=0.34log210.34+0.66log210.66=0.925(bit)_.


(3)  Aus der Grafik auf der Angabenseite erkennt man den Zusammenhang:

I(X;Y)=H(X)+H(Y)H(XY)=0.722(bit)+0.925(bit)1.393(bit)=0.254(bit)_.


(4)  Ebenso gilt entsprechend der Grafik auf der Angabenseite:

H(XY)=H(XY)H(Y)=1.3930.925=0.468(bit)_,
H(YX)=H(XY)H(X)=1.3930.722=0.671(bit)_
Entropiewerte für die Zufallsgrößen XY und UV
  • Die linke Grafik fasst die Ergebnisse der Teilaufgaben  (1), ... ,  (4)  maßstabsgetreu zusammen.
  • Grau hinterlegt ist die Verbundentropie und gelb die Transinformation.
  • Eine rote Hinterlegung bezieht sich auf die Zufallsgröße  X, eine grüne auf  Y.  Schraffierte Felder deuten auf eine bedingte Entropie hin.


Die rechte Grafik beschreibt den gleichen Sachverhalt für die Zufallsgröße  UV   ⇒   Teilaufgabe  (5).


(5)  Richtig sind gemäß dem Schaubild die Aussagen 1, 2 und 4:

  • Man erkennt die Gültigkeit von  PUV=PU·PV   ⇒   Transinformation I(U;V)=0  daran,
    dass die zweite Zeile der  PUV–Matrix sich von der ersten Zeile nur durch einen konstanten Faktor  (4)  unterscheidet.
  • Es ergeben sich gleiche 1D–Wahrscheinlichkeitsfunktionen wie für die Zufallsgröße  XY   ⇒   PU(U)=[0.2, 0.8]  und  PV(V)=[0.34, 0.66].
  • Deshalb ist auch  H(U)=H(X)=0.722 bit  und  H(V)=H(Y)=0.925 bit.
  • Hier gilt aber nun für die Verbundentropie:   H(UV)=H(U)+H(V)H(XY).