Aufgaben:Aufgabe 1.4: Maximum–Likelihood–Entscheidung: Unterschied zwischen den Versionen
Aus LNTwww
Wael (Diskussion | Beiträge) |
|||
(8 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt) | |||
Zeile 3: | Zeile 3: | ||
}} | }} | ||
− | [[Datei:P_ID2384__KC_A_1_4.png|right|frame| | + | [[Datei:P_ID2384__KC_A_1_4.png|right|frame|Modell zur Maximum–Likelihood–Decodierung]] |
− | Wir betrachten das digitale Übertragungssystem entsprechend der Grafik. Berücksichtigt sind dabei: | + | Wir betrachten das digitale Übertragungssystem entsprechend der Grafik. Berücksichtigt sind dabei: |
− | * | + | *Ein systematischer $(5, 2)$–Blockcode $\mathcal{C}$ mit den Codeworten |
− | :x_0 = (0,0,0,0,0), x_1 = (0,1,0,1,0), x_2 = (1,0,1,0,1), $$\underline{x}_{3} \hspace{-0.1cm} \ = \ \hspace{-0.1cm} (1, 1, 1, 1, 1) \hspace{0.05cm} | + | :x_0 = (0,0,0,0,0), x_1 = (0,1,0,1,0), x_2 = (1,0,1,0,1), $$\underline{x}_{3} \hspace{-0.1cm} \ = \ \hspace{-0.1cm} (1, 1, 1, 1, 1) \hspace{0.05cm};$$ |
− | *ein digitales (binäres) Kanalmodell, das den Vektor | + | *ein digitales (binäres) Kanalmodell, das den Vektor $\underline{x} \in {\rm GF} (2^{5})$ in den Vektor $\underline{y} \in {\rm GF} (2^{5})$ verfälscht; |
− | *ein [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Maximum-Likelihood.E2.80.93Entscheidung_beim_BSC.E2.80.93Kanal|Maximum–Likelihood–Decoder]] mit der Entscheidungsregel | + | |
+ | *ein [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Maximum-Likelihood.E2.80.93Entscheidung_beim_BSC.E2.80.93Kanal|Maximum–Likelihood–Decoder]] (kurz: "ML–Decoder") mit der Entscheidungsregel | ||
:z_=argmaxx_i∈CPr(x_i|y_)=argminx_i∈CdH(y_,x_i). | :z_=argmaxx_i∈CPr(x_i|y_)=argminx_i∈CdH(y_,x_i). | ||
− | + | Hier bezeichnet $d_{\rm H} (\underline{y}, \ \underline{x_{i}})$ die [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|Hamming–Distanz]] zwischen dem Empfangswort y_ und dem (möglicherweise) gesendeten Codewort xi_. | |
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | Hinweis: Die Aufgabe gehört zum Kapitel [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen|"Kanalmodelle und Entscheiderstrukturen"]]. | ||
+ | |||
+ | |||
− | |||
− | |||
===Fragebogen=== | ===Fragebogen=== | ||
<quiz display=simple> | <quiz display=simple> | ||
− | {Es sei y_=(1,0,0,0,1). Welche Entscheidungen erfüllen das | + | {Es sei y_=(1,0,0,0,1). Welche Entscheidungen erfüllen das Maximum–Likelihood–Kriterium? |
|type="[]"} | |type="[]"} | ||
- z_=x_0=(0,0,0,0,0), | - z_=x_0=(0,0,0,0,0), | ||
Zeile 28: | Zeile 36: | ||
− | {Es sei y_=(0,0,0,1,0). Welche Entscheidungen erfüllen das | + | {Es sei y_=(0,0,0,1,0). Welche Entscheidungen erfüllen das Maximum–Likelihood–Kriterium? |
|type="[]"} | |type="[]"} | ||
+ z_=x_0=(0,0,0,0,0), | + z_=x_0=(0,0,0,0,0), | ||
Zeile 35: | Zeile 43: | ||
- z_=x_3=(1,1,1,1,1). | - z_=x_3=(1,1,1,1,1). | ||
− | {Welche Entscheidung trifft der ML–Decoder für y_=(1,0,1,1,1), wenn ihm mitgeteilt wird, dass die beiden letzten Symbole | + | {Welche Entscheidung trifft der ML–Decoder für y_=(1,0,1,1,1), wenn ihm mitgeteilt wird, dass die beiden letzten Symbole unsicher sind? |
|type="[]"} | |type="[]"} | ||
- z_=x_0=(0,0,0,0,0), | - z_=x_0=(0,0,0,0,0), | ||
Zeile 44: | Zeile 52: | ||
− | {Zu welchem Informationswort $ | + | {Zu welchem Informationswort $v = (v_{1}, v_{2})$ führt die Entscheidung gemäß der letzten Teilaufgabe? |
|type="{}"} | |type="{}"} | ||
− | $ | + | $v_{1} \ = \ $ { 1 } |
− | $ | + | $v_{2} \ = \ $ { 0. } |
Zeile 55: | Zeile 63: | ||
===Musterlösung=== | ===Musterlösung=== | ||
{{ML-Kopf}} | {{ML-Kopf}} | ||
− | '''(1)''' Die Hamming–Distanzen zwischen dem spezifischen Empfangswort y_=(1,0,0,0,1) und den vier möglichen Codeworten x_i ergeben sich wie folgt: | + | '''(1)''' Richtig ist die <u>Antwort 3</u> ⇒ z_=x_2=(1,0,1,0,1): |
+ | *Die Hamming–Distanzen zwischen dem spezifischen Empfangswort y_=(1,0,0,0,1) und den vier möglichen Codeworten x_i ergeben sich wie folgt: | ||
:dH(y_,x_0)=2,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=3. | :dH(y_,x_0)=2,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=3. | ||
− | Entschieden wird sich für die Folge mit der geringsten Hamming–Distanz | + | *Entschieden wird sich für die Folge mit der geringsten Hamming–Distanz dH(y_,x_2)=1. |
− | '''(2)''' Für y_=(0,0,0,1,0) sind <u> | + | |
+ | |||
+ | '''(2)''' Für y_=(0,0,0,1,0) sind die <u>Antworten 1 und 2</u> richtig, wie die folgende Rechnung zeigt: | ||
:dH(y_,x_0)=1,dH(y_,x_1)=1,dH(y_,x_2)=4,dH(y_,x_3)=4. | :dH(y_,x_0)=1,dH(y_,x_1)=1,dH(y_,x_2)=4,dH(y_,x_3)=4. | ||
− | '''(3)''' Entsprechend der Hamming–Distanz wäre eine Entscheidung zugunsten von x2 genau so möglich wie für x3, wenn | + | |
+ | '''(3)''' Richtig ist die <u>Antwort 3</u>: | ||
+ | *Entsprechend der Hamming–Distanz wäre eine Entscheidung zugunsten von x2 genau so möglich wie für x3, wenn y_=(1,0,1,1,1) empfangen wird: | ||
:dH(y_,x_0)=4,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=1. | :dH(y_,x_0)=4,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=1. | ||
− | Der Empfangsvektor | + | *Der Empfangsvektor $\underline{y}$ unterscheidet sich aber von x2 bezüglich des vierten Bits und von x3 im zweiten Bit. |
+ | * Da das vierte Bit unsicherer ist als das zweite, wird er sich für x2 entscheiden . | ||
+ | |||
+ | |||
+ | |||
+ | '''(4)''' Da es sich hier um einen systematischen Code handelt, ist die Entscheidung für z_=(1,0,1,0,1) gleichbedeutend mit der Entscheidung | ||
+ | :v1 =1_, v2 =0_. | ||
+ | |||
+ | *Es ist nicht sicher, dass $\underline{u} = (1, 0)$ tatsächlich gesendet wurde. | ||
− | + | *Aber die Wahrscheinlichkeit ist angesichts des Empfangsvektors y_=(1,0,1,1,1) hierfür am größten. | |
{{ML-Fuß}} | {{ML-Fuß}} | ||
Zeile 72: | Zeile 93: | ||
− | [[Category:Aufgaben zu Kanalcodierung|^1.2 | + | [[Category:Aufgaben zu Kanalcodierung|^1.2 Kanal und Entscheiderstrukturen |
^]] | ^]] |
Aktuelle Version vom 12. Juni 2022, 16:25 Uhr
Wir betrachten das digitale Übertragungssystem entsprechend der Grafik. Berücksichtigt sind dabei:
- Ein systematischer (5,2)–Blockcode C mit den Codeworten
- x_0 = (0,0,0,0,0),x_1 = (0,1,0,1,0),x_2 = (1,0,1,0,1),x_3 = (1,1,1,1,1);
- ein digitales (binäres) Kanalmodell, das den Vektor x_∈GF(25) in den Vektor y_∈GF(25) verfälscht;
- ein Maximum–Likelihood–Decoder (kurz: "ML–Decoder") mit der Entscheidungsregel
- z_=argmaxx_i∈CPr(x_i|y_)=argminx_i∈CdH(y_,x_i).
Hier bezeichnet dH(y_, xi_) die Hamming–Distanz zwischen dem Empfangswort y_ und dem (möglicherweise) gesendeten Codewort xi_.
Hinweis: Die Aufgabe gehört zum Kapitel "Kanalmodelle und Entscheiderstrukturen".
Fragebogen
Musterlösung
(1) Richtig ist die Antwort 3 ⇒ z_=x_2=(1,0,1,0,1):
- Die Hamming–Distanzen zwischen dem spezifischen Empfangswort y_=(1,0,0,0,1) und den vier möglichen Codeworten x_i ergeben sich wie folgt:
- dH(y_,x_0)=2,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=3.
- Entschieden wird sich für die Folge mit der geringsten Hamming–Distanz dH(y_,x_2)=1.
(2) Für y_=(0,0,0,1,0) sind die Antworten 1 und 2 richtig, wie die folgende Rechnung zeigt:
- dH(y_,x_0)=1,dH(y_,x_1)=1,dH(y_,x_2)=4,dH(y_,x_3)=4.
(3) Richtig ist die Antwort 3:
- Entsprechend der Hamming–Distanz wäre eine Entscheidung zugunsten von x2 genau so möglich wie für x3, wenn y_=(1,0,1,1,1) empfangen wird:
- dH(y_,x_0)=4,dH(y_,x_1)=4,dH(y_,x_2)=1,dH(y_,x_3)=1.
- Der Empfangsvektor y_ unterscheidet sich aber von x2 bezüglich des vierten Bits und von x3 im zweiten Bit.
- Da das vierte Bit unsicherer ist als das zweite, wird er sich für x2 entscheiden .
(4) Da es sich hier um einen systematischen Code handelt, ist die Entscheidung für z_=(1,0,1,0,1) gleichbedeutend mit der Entscheidung
- v1 =1_, v2 =0_.
- Es ist nicht sicher, dass u_=(1,0) tatsächlich gesendet wurde.
- Aber die Wahrscheinlichkeit ist angesichts des Empfangsvektors y_=(1,0,1,1,1) hierfür am größten.