Aufgaben:Aufgabe 1.4: Maximum–Likelihood–Entscheidung: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(8 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 3: Zeile 3:
 
}}
 
}}
  
[[Datei:P_ID2384__KC_A_1_4.png|right|frame|Zur Maximum–Likelihood–Decodierung]]
+
[[Datei:P_ID2384__KC_A_1_4.png|right|frame|Modell zur Maximum–Likelihood–Decodierung]]
  
Wir betrachten das digitale Übertragungssystem entsprechend der Grafik. Berücksichtigt sind dabei:
+
Wir betrachten das digitale Übertragungssystem entsprechend der Grafik.  Berücksichtigt sind dabei:
*ein systematischer (5, 2)–Blockcode ''C'' mit den Codeworten
+
*Ein systematischer  $(5, 2)$–Blockcode  $\mathcal{C}$  mit den Codeworten
:x_0 = (0,0,0,0,0),
x_1 = (0,1,0,1,0),
x_2 = (1,0,1,0,1),
$$\underline{x}_{3} \hspace{-0.1cm} \  =  \  \hspace{-0.1cm} (1, 1, 1, 1, 1) \hspace{0.05cm},$$
+
:x_0 = (0,0,0,0,0),
x_1 = (0,1,0,1,0),
x_2 = (1,0,1,0,1),
$$\underline{x}_{3} \hspace{-0.1cm} \  =  \  \hspace{-0.1cm} (1, 1, 1, 1, 1) \hspace{0.05cm};$$
*ein digitales (binäres) Kanalmodell, das den Vektor <u>x</u> ∈ GF($2^{5}$) in den Vektor y_GF(25) verfälscht,
+
*ein digitales&nbsp; (binäres)&nbsp; Kanalmodell,&nbsp; das den Vektor&nbsp; $\underline{x} \in {\rm GF} (2^{5})$&nbsp; in den Vektor&nbsp; $\underline{y} \in {\rm GF} (2^{5})$&nbsp; verfälscht;
*ein [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Maximum-Likelihood.E2.80.93Entscheidung_beim_BSC.E2.80.93Kanal|Maximum–Likelihood–Decoder]] mit der Entscheidungsregel
+
 
 +
*ein&nbsp; [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Maximum-Likelihood.E2.80.93Entscheidung_beim_BSC.E2.80.93Kanal|Maximum–Likelihood–Decoder]]&nbsp; (kurz: &nbsp; "ML–Decoder") &nbsp;mit der Entscheidungsregel
 
:z_=argmaxx_iCPr(x_i|y_)=argminx_iCdH(y_,x_i).
 
:z_=argmaxx_iCPr(x_i|y_)=argminx_iCdH(y_,x_i).
  
In der Gleichung bezeichnet dH(y_,xi_) die [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|Hamming–Distanz]] zwischen Empfangswort y_ und dem (möglicherweise) gesendeten Codewort xi_.
+
Hier bezeichnet&nbsp; $d_{\rm H} (\underline{y}, \ \underline{x_{i}})$&nbsp; die&nbsp; [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|Hamming–Distanz]]&nbsp; zwischen dem Empfangswort&nbsp; y_&nbsp; und dem&nbsp; (möglicherweise)&nbsp; gesendeten Codewort&nbsp; xi_.
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
Hinweis:&nbsp; Die Aufgabe gehört zum Kapitel&nbsp; [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen|"Kanalmodelle und  Entscheiderstrukturen"]].
 +
 +
 
  
''Hinweis'':
 
  
Die Aufgabe gehört zum [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen|Kanalmodelle und  Entscheiderstrukturen]]
 
 
===Fragebogen===
 
===Fragebogen===
  
 
<quiz display=simple>
 
<quiz display=simple>
{Es sei y_=(1,0,0,0,1). Welche Entscheidungen erfüllen das ML–Kriterium?
+
{Es sei&nbsp; y_=(1,0,0,0,1).&nbsp; Welche Entscheidungen erfüllen das Maximum–Likelihood–Kriterium?
 
|type="[]"}
 
|type="[]"}
 
- z_=x_0=(0,0,0,0,0),
 
- z_=x_0=(0,0,0,0,0),
Zeile 28: Zeile 36:
  
  
{Es sei y_=(0,0,0,1,0). Welche Entscheidungen erfüllen das ML–Kriterium?
+
{Es sei&nbsp; y_=(0,0,0,1,0).&nbsp; Welche Entscheidungen erfüllen das Maximum–Likelihood–Kriterium?
 
|type="[]"}
 
|type="[]"}
 
+ z_=x_0=(0,0,0,0,0),
 
+ z_=x_0=(0,0,0,0,0),
Zeile 35: Zeile 43:
 
- z_=x_3=(1,1,1,1,1).
 
- z_=x_3=(1,1,1,1,1).
  
{Welche Entscheidung trifft der ML–Decoder für y_=(1,0,1,1,1), wenn ihm mitgeteilt wird, dass die beiden letzten Symbole eher unsicher sind?
+
{Welche Entscheidung trifft der ML–Decoder für&nbsp; y_=(1,0,1,1,1),&nbsp; wenn ihm mitgeteilt wird,&nbsp; dass die beiden letzten Symbole unsicher sind?
 
|type="[]"}
 
|type="[]"}
 
- z_=x_0=(0,0,0,0,0),
 
- z_=x_0=(0,0,0,0,0),
Zeile 44: Zeile 52:
  
  
{Zu welchem Informationswort $\upsilon = (\upsilon_{1}, \upsilon_{2})$ führt diese Entscheidung?
+
{Zu welchem Informationswort&nbsp; $v = (v_{1}, v_{2})$&nbsp; führt die Entscheidung gemäß der letzten Teilaufgabe?
 
|type="{}"}
 
|type="{}"}
$\upsilon_{1}$ = { 1 3% }
+
$v_{1} \ = \ $ { 1 }
$\upsilon_{2}$ = { 0 3% }
+
$v_{2} \ = \ $ { 0. }
  
  
Zeile 55: Zeile 63:
 
===Musterlösung===
 
===Musterlösung===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
'''(1)'''&nbsp; Die Hamming–Distanzen zwischen dem spezifischen Empfangswort y_=(1,0,0,0,1) und den vier möglichen Codeworten x_i ergeben sich wie folgt:
+
'''(1)'''&nbsp; Richtig ist die&nbsp; <u>Antwort 3</u> &nbsp; &rArr; &nbsp;  z_=x_2=(1,0,1,0,1):
 +
*Die Hamming–Distanzen zwischen dem spezifischen Empfangswort&nbsp; y_=(1,0,0,0,1)&nbsp; und den vier möglichen Codeworten&nbsp; x_i&nbsp; ergeben sich wie folgt:
 
:dH(y_,x_0)=2,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=3.
 
:dH(y_,x_0)=2,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=3.
Entschieden wird sich für die Folge mit der geringsten Hamming–Distanz ⇒ <u>Antwort 3</u>.
+
*Entschieden wird sich für die Folge mit der geringsten Hamming–Distanz&nbsp; dH(y_,x_2)=1.
  
'''(2)'''&nbsp; Für y_=(0,0,0,1,0) sind <u>Antwort 1</u>und <u>Antwort 2</u> richtig, wie die folgende Rechnung zeigt:
+
 
 +
 
 +
'''(2)'''&nbsp; Für&nbsp; y_=(0,0,0,1,0)&nbsp; sind die&nbsp; <u>Antworten 1 und 2</u>&nbsp; richtig,&nbsp; wie die folgende Rechnung zeigt:
 
:dH(y_,x_0)=1,dH(y_,x_1)=1,dH(y_,x_2)=4,dH(y_,x_3)=4.
 
:dH(y_,x_0)=1,dH(y_,x_1)=1,dH(y_,x_2)=4,dH(y_,x_3)=4.
  
'''(3)'''&nbsp; Entsprechend der Hamming–Distanz wäre eine Entscheidung zugunsten von x2 genau so möglich wie für x3, wenn der Vektor y_=(1,0,1,1,1) empfangen wird:
+
 
 +
'''(3)'''&nbsp; Richtig ist die&nbsp; <u>Antwort 3</u>:
 +
*Entsprechend der Hamming–Distanz wäre eine Entscheidung zugunsten von&nbsp; x2&nbsp; genau so möglich wie für&nbsp; x3,&nbsp; wenn y_=(1,0,1,1,1)&nbsp; empfangen wird:
 
:dH(y_,x_0)=4,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=1.
 
:dH(y_,x_0)=4,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=1.
Der Empfangsvektor ''y'' unterscheidet sich von x2 bezüglich des vierten Bits und von x3 im zweiten Bit. Da das vierte Bit unsicherer ist als das zweite, wird er sich für x2 entscheiden ⇒ <u>Antwort 3</u>.
+
*Der Empfangsvektor&nbsp; $\underline{y}$&nbsp; unterscheidet sich aber von&nbsp; x2&nbsp; bezüglich des vierten Bits und von&nbsp; x3&nbsp; im zweiten Bit.
 +
* Da das vierte Bit unsicherer ist als das zweite,&nbsp; wird er sich für&nbsp; x2&nbsp; entscheiden .
 +
 
 +
 
 +
 
 +
'''(4)'''&nbsp; Da es sich hier um einen systematischen Code handelt,&nbsp; ist die Entscheidung für&nbsp; z_=(1,0,1,0,1)&nbsp; gleichbedeutend mit der Entscheidung
 +
:v1 =1_, v2 =0_.
 +
 
 +
*Es ist nicht sicher,&nbsp; dass&nbsp; $\underline{u} = (1, 0)$&nbsp;  tatsächlich gesendet wurde.  
  
'''(4)'''&nbsp; Da es sich hier um einen systematischen Code handelt, ist die Entscheidung für z_=(1,0,1,0,1) gleichbedeutend mit der Entscheidung υ1 =1_,υ2 =0_. Es ist nicht sicher, dass <u>u</u> = (1, 0) tatsächlich gesendet wurde, aber die Wahrscheinlichkeit ist angesichts des Empfangsvektors y_=(1,0,1,1,1) hierfür am größten.
+
*Aber die Wahrscheinlichkeit ist angesichts des Empfangsvektors&nbsp; y_=(1,0,1,1,1)&nbsp; hierfür am größten.
  
 
{{ML-Fuß}}
 
{{ML-Fuß}}
Zeile 72: Zeile 93:
  
  
[[Category:Aufgaben zu  Kanalcodierung|^1.2 Kanalmodelle und Entscheiderstrukturen
+
[[Category:Aufgaben zu  Kanalcodierung|^1.2 Kanal und Entscheiderstrukturen
 
^]]
 
^]]

Aktuelle Version vom 12. Juni 2022, 16:25 Uhr

Modell zur Maximum–Likelihood–Decodierung

Wir betrachten das digitale Übertragungssystem entsprechend der Grafik.  Berücksichtigt sind dabei:

  • Ein systematischer  (5,2)–Blockcode  C  mit den Codeworten
x_0 = (0,0,0,0,0),
x_1 = (0,1,0,1,0),
x_2 = (1,0,1,0,1),
x_3 = (1,1,1,1,1);
  • ein digitales  (binäres)  Kanalmodell,  das den Vektor  x_GF(25)  in den Vektor  y_GF(25)  verfälscht;
z_=argmaxx_iCPr(x_i|y_)=argminx_iCdH(y_,x_i).

Hier bezeichnet  dH(y_, xi_)  die  Hamming–Distanz  zwischen dem Empfangswort  y_  und dem  (möglicherweise)  gesendeten Codewort  xi_.




Hinweis:  Die Aufgabe gehört zum Kapitel  "Kanalmodelle und Entscheiderstrukturen".



Fragebogen

1

Es sei  y_=(1,0,0,0,1).  Welche Entscheidungen erfüllen das Maximum–Likelihood–Kriterium?

z_=x_0=(0,0,0,0,0),
z_=x_1=(0,1,0,1,0),
z_=x_2=(1,0,1,0,1),
z_=x_3=(1,1,1,1,1).

2

Es sei  y_=(0,0,0,1,0).  Welche Entscheidungen erfüllen das Maximum–Likelihood–Kriterium?

z_=x_0=(0,0,0,0,0),
z_=x_1=(0,1,0,1,0),
z_=x_2=(1,0,1,0,1),
z_=x_3=(1,1,1,1,1).

3

Welche Entscheidung trifft der ML–Decoder für  y_=(1,0,1,1,1),  wenn ihm mitgeteilt wird,  dass die beiden letzten Symbole unsicher sind?

z_=x_0=(0,0,0,0,0),
z_=x_1=(0,1,0,1,0),
z_=x_2=(1,0,1,0,1),
z_=x_3=(1,1,1,1,1).

4

Zu welchem Informationswort  v=(v1,v2)  führt die Entscheidung gemäß der letzten Teilaufgabe?

v1 = 

v2 = 


Musterlösung

(1)  Richtig ist die  Antwort 3   ⇒   z_=x_2=(1,0,1,0,1):

  • Die Hamming–Distanzen zwischen dem spezifischen Empfangswort  y_=(1,0,0,0,1)  und den vier möglichen Codeworten  x_i  ergeben sich wie folgt:
dH(y_,x_0)=2,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=3.
  • Entschieden wird sich für die Folge mit der geringsten Hamming–Distanz  dH(y_,x_2)=1.


(2)  Für  y_=(0,0,0,1,0)  sind die  Antworten 1 und 2  richtig,  wie die folgende Rechnung zeigt:

dH(y_,x_0)=1,dH(y_,x_1)=1,dH(y_,x_2)=4,dH(y_,x_3)=4.


(3)  Richtig ist die  Antwort 3:

  • Entsprechend der Hamming–Distanz wäre eine Entscheidung zugunsten von  x2  genau so möglich wie für  x3,  wenn y_=(1,0,1,1,1)  empfangen wird:
dH(y_,x_0)=4,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=1.
  • Der Empfangsvektor  y_  unterscheidet sich aber von  x2  bezüglich des vierten Bits und von  x3  im zweiten Bit.
  • Da das vierte Bit unsicherer ist als das zweite,  wird er sich für  x2  entscheiden .


(4)  Da es sich hier um einen systematischen Code handelt,  ist die Entscheidung für  z_=(1,0,1,0,1)  gleichbedeutend mit der Entscheidung

v1 =1_, v2 =0_.
  • Es ist nicht sicher,  dass  u_=(1,0)  tatsächlich gesendet wurde.
  • Aber die Wahrscheinlichkeit ist angesichts des Empfangsvektors  y_=(1,0,1,1,1)  hierfür am größten.