Kanalcodierung/Decodierung linearer Blockcodes: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(23 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt)
Zeile 8: Zeile 8:
 
== Blockschaltbild und Voraussetzungen ==
 
== Blockschaltbild und Voraussetzungen ==
 
<br>
 
<br>
Wir gehen von dem bereits im Kapitel 1.2 gezeigten Blockschaltbild aus, wobei als Kanalmodell meist der <i>Binary Symmetric Channel</i> (BSC) verwendet wird. Zur Codewortschätzung verwenden wir den <i>Maximum&ndash;Likelihood&ndash;Entscheider</i> (ML), der für binäre Codes &#8658; <u><i>x</i></u> &#8712; GF(2<sup><i>n</i></sup>) das gleiche Ergebnis liefert wie der MAP&ndash;Empfänger.<br>
+
Wir gehen von dem bereits im Kapitel&nbsp; [[Kanalcodierung/Kanalmodelle_und Entscheiderstrukturen|"Kanalmodelle und Entscheiderstrukturen"]]&nbsp; gezeigten Blockschaltbild aus,&nbsp; wobei als Kanalmodell meist der&nbsp; "Binary Symmetric Channel"&nbsp; $\rm (BSC)$&nbsp; verwendet wird.&nbsp; Zur Codewortschätzung verwenden wir den&nbsp; "Maximum&ndash;Likelihood&ndash;Entscheider"&nbsp; $\rm (ML)$,&nbsp; der für binäre Codes &nbsp; &#8658; &nbsp; $\underline{x}  \in {\rm GF}(2^n)$&nbsp; auf Blockebene das gleiche Ergebnis liefert wie der&nbsp; [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Definitionen_der_verschiedenen_Optimalempf.C3.A4nger|"MAP&ndash;Empfänger"]].<br>
  
[[Datei:P ID2360 KC T 1 5 S1 v2.png|Blockschaltbild zu Kapitel 1.5 und 1.6|class=fit]]<br>
+
[[Datei:P ID2360 KC T 1 5 S1 v2.png|center|frame|Blockschaltbild zur Decodierung von Blockcodes|class=fit]]
  
 
Die Aufgabe des Kanaldecoders kann wie folgt beschrieben werden:
 
Die Aufgabe des Kanaldecoders kann wie folgt beschrieben werden:
*Der Vektor <i><u>&upsilon;</u></i> nach der Decodierung (an der Sinke) soll möglichst gut mit dem Informationswort <i><u>u</u></i> übereinstimmen. Das heißt: Die Blockfehlerwahrscheinlichkeit soll möglichst klein sein:
+
*Der Vektor&nbsp; $\underline{v}$&nbsp; nach der Decodierung (an der Sinke) soll möglichst gut mit dem Informationswort&nbsp; $\underline{u}$&nbsp; übereinstimmen. <br>Das heißt: &nbsp; Die&nbsp; '''Blockfehlerwahrscheinlichkeit'''&nbsp; soll möglichst klein sein:
  
 
::<math>{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{v} \ne \underline{u}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.</math>
 
::<math>{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{v} \ne \underline{u}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.</math>
  
*Aufgrund der deterministischen Zuweisungen <i><u>x</u></i> = enc(<i><u>u</u></i>) bzw. <i><u>&upsilon;</u></i>&nbsp;=&nbsp;enc<sup>&ndash;1</sup>(<i><u>z</u></i>) gilt aber auch:
+
*Aufgrund der deterministischen Zuweisungen&nbsp; $\underline{x} = {\rm enc}(\underline{u})$&nbsp; bzw.&nbsp; $\underline{v} = {\rm enc}^{-1}(\underline{z})$&nbsp; gilt aber auch:
  
 
::<math>{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{z} \ne \underline{x}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.</math>  
 
::<math>{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{z} \ne \underline{x}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.</math>  
  
*Gesucht ist somit das zum gegebenen Empfangswort <i><u>y</u></i> = <i><u>x</u></i> + <i><u>e</u></i> am wahrscheinlichsten gesendete Codewort <i><u>x</u></i><sub><i>i</i></sub>, das als Ergebnis <i><u>z</u></i> weiter gegeben wird:
+
*Gesucht ist somit das zum gegebenen Empfangswort&nbsp; $\underline{y} = \underline{x} +\underline{e}$&nbsp; am wahrscheinlichsten gesendete Codewort&nbsp; $\underline{x}_i$, das als Ergebnis&nbsp; $\underline{z}$&nbsp; weiter gegeben wird:
  
 
::<math>\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} {\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}|\hspace{0.05cm} \underline{y} ) \hspace{0.05cm}.</math>
 
::<math>\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} {\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}|\hspace{0.05cm} \underline{y} ) \hspace{0.05cm}.</math>
  
*Beim BSC&ndash;Kanal gilt sowohl <i><u>x</u></i><sub><i>i</i></sub> &#8712; GF(2<sup><i>n</i></sup>) als auch <i><u>y</u></i> &#8712; GF(2<sup><i>n</i></sup>), so dass die ML&ndash;Regel auch mit der Hamming&ndash;Distanz <i>d</i><sub>H</sub>(<i><u>y</u></i>, <i><u>x</u></i><sub><i>i</i></sub>) geschrieben werden kann:
+
*Beim BSC&ndash;Kanal gilt sowohl&nbsp; $\underline{x}_i  \in {\rm GF}(2^n)$&nbsp; als auch&nbsp; $\underline{y}  \in {\rm GF}(2^n)$, so dass die Maximum&ndash;Likelihood&ndash;Regel auch mit der&nbsp; [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung |Hamming&ndash;Distanz]]&nbsp; $d_{\rm H}( \underline{y}, \, \underline{x}_i)$&nbsp; geschrieben werden kann:
  
 
::<math>\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}
 
::<math>\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}
Zeile 32: Zeile 32:
 
== Prinzip der Syndromdecodierung ==
 
== Prinzip der Syndromdecodierung ==
 
<br>
 
<br>
Vorausgesetzt wird hier ein (<i>n</i>, <i>k</i>)&ndash;Blockcode mit der Prüfmatrix <b>H</b> und den systematischen Codeworten
+
Vorausgesetzt wird hier ein&nbsp; $(n, \, k)$&ndash;Blockcode mit der Prüfmatrix&nbsp; $\boldsymbol{\rm H}$&nbsp; und den systematischen Codeworten
  
::<math>\underline{x}\hspace{0.05cm} = (x_1, x_2, ... \hspace{0.05cm}, x_i, ... \hspace{0.05cm}, x_n)
+
::<math>\underline{x}\hspace{0.05cm} = (x_1, x_2, \hspace{0.05cm}\text{...} \hspace{0.05cm}, x_i, \hspace{0.05cm}\text{...}  \hspace{0.05cm}, x_n)
  = (u_1, u_2, ... \hspace{0.05cm}, u_k, p_1, ... \hspace{0.05cm}, p_{n-k})\hspace{0.05cm}. </math>
+
  = (u_1, u_2, \hspace{0.05cm}\text{...}  \hspace{0.05cm}, u_k, p_1, \hspace{0.05cm}\text{...\hspace{0.05cm}, p_{n-k})\hspace{0.05cm}. </math>
  
Mit dem Fehlervektor <i><u>e</u></i> gilt dann für das Empfangswort:
+
Mit dem Fehlervektor&nbsp; $\underline{e}$&nbsp;  gilt dann für das Empfangswort:
  
::<math>\underline{y} = \underline{x} + \underline{e} \hspace{0.05cm}, \hspace{0.4cm} \underline{y} \in \hspace{0.1cm} {\rm GF}(2^n) \hspace{0.05cm}, \hspace{0.1cm} \underline{x} \in \hspace{0.1cm} {\rm GF}(2^n) \hspace{0.05cm}, \hspace{0.1cm} \underline{e} \in \hspace{0.1cm} {\rm GF}(2^n)
+
::<math>\underline{y} = \underline{x} + \underline{e} \hspace{0.05cm}, \hspace{0.4cm} \underline{y} \in \hspace{0.1cm} {\rm GF}(2^n) \hspace{0.05cm}, \hspace{0.4cm} \underline{x} \in \hspace{0.1cm} {\rm GF}(2^n) \hspace{0.05cm}, \hspace{0.4cm} \underline{e} \in \hspace{0.1cm} {\rm GF}(2^n)
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
Ein Bitfehler an der Position <i>i</i>, das heißt <i>y<sub>i</sub></i> &ne; <i>x<sub>i</sub></i>, wird ausgedrückt durch den Fehlerkoeffizienten <i>e<sub>i</sub></i> = 1.<br>
+
Ein Bitfehler an der Position&nbsp; $i$, das heißt&nbsp; $y_i &ne; x_i$, wird ausgedrückt durch den Fehlerkoeffizienten&nbsp; $e_i = 1$.<br>
  
{{Definition}}''':''' Das Syndrom <i><u>s</u></i> = (<i>s</i><sub>0</sub>, <i>s</i><sub>1</sub>, ... , <i>s</i><sub><i>m</i>&ndash;1</sub>) berechnet sich (als Zeilen&ndash; bzw. Spaltenvektor) aus dem Empfangswort <i><u>y</u></i> und der Prüfmatrix <b>H</b> in folgender Weise:
+
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; Das&nbsp; '''Syndrom'''&nbsp; $\underline{s} = (s_0, s_1, \hspace{0.05cm}\text{...} \hspace{0.05cm}, s_{m-1})$&nbsp; berechnet sich (als Zeilen&ndash; bzw. Spaltenvektor) aus dem Empfangswort&nbsp; $\underline{y}$&nbsp; und der Prüfmatrix&nbsp; $\boldsymbol{\rm H}$&nbsp; wie folgt:
  
:<math>\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H}}^{\rm T}\hspace{0.3cm}{\rm bzw.}\hspace{0.3cm}  
+
::<math>\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H} }^{\rm T}\hspace{0.3cm}{\rm bzw.}\hspace{0.3cm}  
\underline{s}^{\rm T} = { \boldsymbol{\rm H}} \cdot \underline{y}^{\rm T}\hspace{0.05cm}.</math>
+
\underline{s}^{\rm T} = { \boldsymbol{\rm H} } \cdot \underline{y}^{\rm T}\hspace{0.05cm}.</math>
  
Die Vektorlänge von <u><i>s</i></u> ist gleich <i>m</i> = <i>n</i> &ndash; <i>k</i> (Zeilenzahl von <b>H</b>).{{end}}<br>
+
Die Vektorlänge von&nbsp; $\underline{s}$&nbsp; ist gleich&nbsp; $m = n-k$&nbsp; $($Zeilenzahl von&nbsp; $\boldsymbol{\rm H})$.}}<br>
  
Das Syndrom <i><u>s</u></i> zeigt folgende Charakteristika:
+
Das Syndrom&nbsp; $\underline{s}$&nbsp; zeigt folgende Charakteristika:
*Wegen <i><u>x</u></i> &middot; <b>H</b><sup>T</sup> = <u>0</u> hängt <i><u>s</u></i> nicht vom Codewort <i><u>x</u></i> ab, sondern allein vom Fehlervektor <i><u>e</u></i>:
+
*Wegen der Gleichung&nbsp; $\underline{x} \cdot { \boldsymbol{\rm H}}^{\rm T= \underline{0}$&nbsp; hängt das Syndrom&nbsp; $\underline{s}$&nbsp; nicht vom Codewort&nbsp; $\underline{x}$&nbsp; ab, sondern allein vom Fehlervektor&nbsp; $\underline{e}$:
  
 
::<math>\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H}}^{\rm T}
 
::<math>\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H}}^{\rm T}
Zeile 59: Zeile 60:
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
*Bei hinreichend wenig Bitfehlern liefert <i><u>s</u></i> einen eindeutigen Hinweis auf die Fehlerpositionen und ermöglicht so eine vollständige Fehlerkorrektur.<br><br>
+
*Bei hinreichend wenig Bitfehlern liefert&nbsp; $\underline{s}$&nbsp; einen eindeutigen Hinweis auf die Fehlerpositionen und ermöglicht so eine vollständige Fehlerkorrektur.<br><br>
  
{{Beispiel}}''':''' Ausgehend vom systematischen (7,&nbsp;4,&nbsp;3)&ndash;Hamming&ndash;Code erhält man beispielsweise für den Empfangsvektor <u><i>y</i></u> = (0, 1, 1, 1, 0, 0, 1) das folgende Ergebnis:
+
{{GraueBox|TEXT= 
 +
$\text{Beispiel 1:}$&nbsp; Ausgehend vom systematischen&nbsp; [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Einige_Eigenschaften_des_.287.2C_4.2C_3.29.E2.80.93Hamming.E2.80.93Codes|$\text{(7, 4, 3)}$&ndash;Hamming&ndash;Code]] erhält man für den Empfangsvektor&nbsp; $\underline{y} = (0, 1, 1, 1, 0, 0, 1)$&nbsp; das folgende Ergebnis:
  
:<math>{ \boldsymbol{\rm H}} \cdot \underline{y}^{\rm T}
+
::<math>{ \boldsymbol{\rm H} } \cdot \underline{y}^{\rm T}
 
=  \begin{pmatrix}
 
=  \begin{pmatrix}
 
1 &1 &1 &0 &1 &0 &0\\
 
1 &1 &1 &0 &1 &0 &0\\
Zeile 82: Zeile 84:
 
\end{pmatrix} = \underline{s}^{\rm T} \hspace{0.05cm}.</math>
 
\end{pmatrix} = \underline{s}^{\rm T} \hspace{0.05cm}.</math>
  
Vergleicht man das Syndrom mit den Prüfgleichungen des Hamming&ndash;Codes, so erkennt man, dass
+
Vergleicht man das Syndrom mit den&nbsp; [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Pr.C3.BCfmatrix| Prüfgleichungen]]&nbsp; des Hamming&ndash;Codes, so erkennt man, dass
*am wahrscheinlichsten das vierte Symbol (<i>x</i><sub>4</sub> = <i>u</i><sub>4</sub>) des Codewortes verfälscht wurde,<br>
+
*am wahrscheinlichsten das vierte Symbol&nbsp; $(x_4 = u_4)$&nbsp; des Codewortes verfälscht wurde,<br>
  
*der Codewortschätzer somit das Ergebnis  <u><i>z</i></u> = (0, 1, 1, 0, 0, 0, 1) liefern wird.<br>
+
*der Codewortschätzer somit das Ergebnis&nbsp; $\underline{z} = (0, 1, 1, 0, 0, 0, 1)$&nbsp; liefern wird,<br>
  
 
*die Entscheidung nur dann richtig ist, wenn bei der Übertragung nur ein Bit verfälscht wurde.<br><br>
 
*die Entscheidung nur dann richtig ist, wenn bei der Übertragung nur ein Bit verfälscht wurde.<br><br>
  
Nachfolgend sind die erforderlichen Korrekturen für den (7,&nbsp;4,&nbsp;3)&ndash;Hamming&ndash;Code angegeben, die sich aus dem errechneten Syndrom <i><u>s</u></i> entsprechend den Spalten der Prüfmatrix ergeben:
+
Nachfolgend sind die erforderlichen Korrekturen für den&nbsp; $\text{(7, 4, 3)}$&ndash;Hamming&ndash;Code angegeben, die sich aus dem errechneten Syndrom&nbsp; $\underline{s}$&nbsp;  entsprechend den Spalten der Prüfmatrix ergeben:
  
:<math>\underline{s} \hspace{-0.15cm} = \hspace{-0.15cm} (0, 0, 0) \hspace{0.10cm} \Rightarrow\hspace{0.10cm}{\rm keine\hspace{0.15cm} Korrektur}\hspace{0.05cm};\hspace{0.4cm}\underline{s} = (1, 0, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm}p_1{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};</math>
+
::<math>\underline{s} = (0, 0, 0) \hspace{0.10cm} \Rightarrow\hspace{0.10cm}{\rm keine\hspace{0.15cm} Korrektur}\hspace{0.05cm};\hspace{0.8cm}\underline{s} = (1, 0, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm}p_1{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};</math>
:<math>\underline{s} \hspace{-0.15cm} = \hspace{-0.15cm}(0, 0, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} p_3{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{0.82cm}\underline{s} = (1, 0, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_1{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};</math>
+
::<math>\underline{s} =(0, 0, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} p_3{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{1.22cm}\underline{s} = (1, 0, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_1{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};</math>
:<math>\underline{s} \hspace{-0.15cm} = \hspace{-0.15cm}(0, 1, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} p_2{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{0.82cm}\underline{s} = (1, 1, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_3{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};</math>
+
::<math>\underline{s} =(0, 1, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} p_2{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{1.22cm}\underline{s} = (1, 1, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_3{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};</math>
:<math>\underline{s} \hspace{-0.15cm} = \hspace{-0.15cm}(0, 1, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_4{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{0.82cm}\underline{s} = (1, 1, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_2{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm}. </math>{{end}}<br>
+
::<math>\underline{s} =(0, 1, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_4{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{1.22cm}\underline{s} = (1, 1, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_2{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm}. </math>}}<br>
  
== Verallgemeinerung der Syndromdecodierung (1) ==
+
== Verallgemeinerung der Syndromdecodierung ==
 
<br>
 
<br>
Wir fassen die Ergebnisse der letzten Seiten zusammen, wobei wir weiterhin vom BSC&ndash;Kanalmodell ausgehen. Das bedeutet: <i><u>y</u></i> und <i><u>e</u></i> sind Elemente von GF(2<sup><i>n</i></sup>), während die möglichen Codeworte <i><u>x</u><sub>i</sub></i> zum Code <i>C</i> gehören, der einen (<i>n</i> &ndash; <i>k</i>)&ndash;dimensionalen Untervektorraum von GF(2<sup><i>n</i></sup>) darstellt. Dann gilt:
+
Wir gehen weiterhin vom BSC&ndash;Kanalmodell aus. Das bedeutet:  
 +
*Der Empfangsvektor&nbsp; $\underline{y}$&nbsp;  und der Fehlervektor&nbsp; $\underline{e}$&nbsp; sind Elemente von&nbsp; ${\rm GF}(2^n)$.
 +
*Die möglichen Codeworte&nbsp; $\underline{x}_i$&nbsp;  gehören zum Code&nbsp; $\mathcal{C}$, der einen&nbsp; $(n-k)$&ndash;dimensionalen Untervektorraum von&nbsp; ${\rm GF}(2^n)$&nbsp; aufspannt.  
  
*Die Syndromdecodierung ist eine Realisierungsmöglichkeit der Maximum&ndash;Likelihood&ndash;Detektion von Blockcodes. Man entscheidet sich für das Codewort mit der geringsten Hamming&ndash;Distanz zum Empfangswort:
+
 
 +
Unter dieser Voraussetzung fassen wir die Ergebnisse der letzten Seiten nochmals kurz zusammen:
 +
*Die Syndromdecodierung ist eine Realisierungsmöglichkeit der Maximum&ndash;Likelihood&ndash;Detektion von Blockcodes. Man entscheidet sich für das Codewort&nbsp;  $\underline{x}_i$&nbsp; mit der geringsten Hamming&ndash;Distanz zum Empfangswort&nbsp;  $\underline{y}$&nbsp;:
  
 
::<math>\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}
 
::<math>\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}
 
d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}.</math>
 
d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}.</math>
  
*Die Syndromdecodierung  ist aber auch die Suche nach dem wahrscheinlichsten Fehlervektor <i><u>e</u></i>, der die Bedingung <i><u>e</u></i> &middot; <b>H</b><sup>T</sup> = <i><u>s</u></i> erfüllt. Das <i>Syndrom</i> liegt dabei durch <i><u>s</u></i>&nbsp;=&nbsp;<i><u>y</u></i>&nbsp;&middot;&nbsp;<b>H</b><sup>T</sup> fest.
+
*Die Syndromdecodierung  ist aber auch die Suche nach dem wahrscheinlichsten Fehlervektor&nbsp; $\underline{e}$, der die Bedingung&nbsp; $\underline{e} \cdot { \boldsymbol{\rm H}}^{\rm T= \underline{s}$&nbsp; erfüllt. Das&nbsp; <i>Syndrom</i>&nbsp; liegt dabei durch die Gleichung&nbsp; $\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H}}^{\rm T}  $&nbsp; fest.
  
*Mit dem Hamming&ndash;Gewicht <i>w</i><sub>H</sub>(<i><u>e</u></i>) kann die zweite Interpretation auch wie folgt mathematisch formuliert werden:
+
*Mit dem&nbsp; [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung| Hamming&ndash;Gewicht]]&nbsp; $w_{\rm H}(\underline{e})$&nbsp; kann die zweite Interpretation auch wie folgt mathematisch formuliert werden:
  
 
::<math>\underline{z} = \underline{y} + {\rm arg} \min_{\underline{e}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} {\rm GF}(2^n)} \hspace{0.1cm}
 
::<math>\underline{z} = \underline{y} + {\rm arg} \min_{\underline{e}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} {\rm GF}(2^n)} \hspace{0.1cm}
 
w_{\rm H}(\underline{e}_{\hspace{0.03cm}i})\hspace{0.05cm}.</math>
 
w_{\rm H}(\underline{e}_{\hspace{0.03cm}i})\hspace{0.05cm}.</math>
  
Zu beachten ist, dass der Fehlervektor <i><u>e</u></i> ebenso wie der Empfangsvektor <i><u>y</u></i> ein Element von GF(2<sup><i>n</i></sup>) ist im Gegensatz zum Syndrom <i><u>s</u></i>&nbsp;&#8712;&nbsp;GF(2<sup><i>m</i></sup>)  mit der Anzahl <i>m</i>&nbsp;=&nbsp;<i>n</i>&nbsp;&ndash;&nbsp;<i>k</i> der Prüfgleichungen. Das bedeutet,
+
{{BlaueBox|TEXT= 
*dass die Zuordnung zwischen Syndrom <i><u>s</u></i> und Fehlervektor <i><u>e</u></i> nicht eindeutig ist, sondern<br>
+
$\text{Fazit:}$&nbsp; Zu beachten ist, dass der Fehlervektor&nbsp; $\underline{e}$&nbsp; ebenso wie der Empfangsvektor&nbsp; $\underline{y}$&nbsp; ein Element von&nbsp; ${\rm GF}(2^n)$&nbsp; ist im Gegensatz zum Syndrom&nbsp; $\underline{s} \in {\rm GF}(2^m)$&nbsp; mit der Anzahl&nbsp; $m = n-k$&nbsp; der Prüfgleichungen. Das bedeutet,
 +
*dass die Zuordnung zwischen dem Syndrom&nbsp; $\underline{s}$&nbsp; und dem Fehlervektor&nbsp; $\underline{e}$&nbsp; nicht eindeutig ist, sondern<br>
  
*dass jeweils 2<sup><i>k</i></sup> Fehlervektoren zum gleichen Syndrom <i><u>s</u></i> führen, die man zu einer Nebenklasse (englisch: <i>Coset</i>) zusammenfasst.<br>
+
*dass jeweils&nbsp; $2^k$&nbsp; Fehlervektoren zum gleichen Syndrom&nbsp; $\underline{s}$&nbsp; führen, die man zu einer&nbsp; '''Nebenklasse'''&nbsp; (englisch: &nbsp; <i>Coset</i>&nbsp;) zusammenfasst.}}<br>
:[[Datei:P ID2361 KC T 1 5 S3 v2.png|Aufteilung der 2<sup><i>k</i></sup> Fehlervektoren in <i>Cosets</i>|class=fit]]<br>
 
  
Die Grafik verdeutlicht diesen Sachverhalt am Beispiel <i>n</i> = 5 und <i>k</i> = 2 &#8658; <i>m</i> = <i>n</i> &ndash; <i>k</i> = 3.
+
{{GraueBox|TEXT= 
*Die insgesamt 2<sup><i>n</i></sup> = 32 möglichen Fehlervektoren <i><u>e</u></i> werden in 2<sup><i>m</i></sup> = 8 Nebenklassen <i>&Psi;</i><sub>0</sub>, ... , <i>&Psi;</i><sub>7</sub> aufgeteilt, auch &bdquo;<i>Cosets</i>&rdquo; genannt. Explizit gezeichnet sind hier nur die Cosets <i>&Psi;</i><sub>0</sub> und <i>&Psi;</i><sub>5</sub>.<br>
+
$\text{Beispiel 2:}$&nbsp; Der Sachverhalt soll hier am Beispiel&nbsp; $n = 5, \ k = 2$ &nbsp;  &#8658; &nbsp; $m = n-k = 3$&nbsp; verdeutlicht  werden.
  
*Alle 2<sup><i>k</i></sup> = 4 Fehlervektoren des Cosets <i>&Psi;<sub>&mu;</sub></i> führen zum gleichen Syndrom <i><u>s</u></i><sub><i>&mu;</i></sub>. Zudem hat jede Nebenklasse einen Anführer <i><u>e</u></i><sub><i>&mu;</i></sub>, nämlich denjenigen mit dem minimalen Hamming&ndash;Gewicht.<br><br>
+
[[Datei:P ID2361 KC T 1 5 S3 v2.png|right|frame|Aufteilung der&nbsp; $2^k$&nbsp; Fehlervektoren in&nbsp; &bdquo;Cosets&rdquo;|class=fit]]
  
Die Vorgehensweise bei der Syndromdecodierung wird auf den nächsten Seiten nochmals ausführlich an einem Beispiel erläutert.<br>
+
Man erkennt aus dieser Grafik:
  
== Verallgemeinerung der Syndromdecodierung (2) ==
+
*Die&nbsp; $2^n = 32$&nbsp; möglichen Fehlervektoren&nbsp; $\underline{e}$&nbsp; werden in&nbsp; $2^m = 8$&nbsp; &bdquo;Cosets&rdquo;&nbsp; ${\it \Psi}_0$,&nbsp; ... &nbsp;,  ${\it \Psi}_7$&nbsp; aufgeteilt.
<br>
+
*Explizit gezeichnet sind hier nur die Cosets&nbsp; ${\it \Psi}_0$&nbsp; und&nbsp; ${\it \Psi}_5$.<br>
Die Syndromdecodierung wird hier am Beispiel eines systematischen (5,&nbsp;2,&nbsp;3)&ndash;Codes beschrieben:
 
  
:<math>\mathcal{C} = \{ (0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm}(0, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 1, 0) \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 0, 1) \}\hspace{0.05cm}.</math>
+
*Alle&nbsp; $2^k = 4$&nbsp; Fehlervektoren des Cosets&nbsp; ${\it \Psi}_\mu$&nbsp; führen zum Syndrom&nbsp; $\underline{s}_\mu$.
 +
*Jede Nebenklasse&nbsp; ${\it \Psi}_\mu$&nbsp; hat einen Anführer&nbsp; $\underline{e}_\mu$, nämlich denjenigen mit dem minimalen Hamming&ndash;Gewicht.}}<br>
  
Generatormatrix und Prüfmatrix lauten:
+
{{GraueBox|TEXT= 
 +
$\text{Beispiel 3:}$&nbsp; Ausgehend vom systematischen&nbsp; $\text{(5,&nbsp;2,&nbsp;3)}$&ndash;Code&nbsp; $\mathcal{C} = \big \{ (0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm}(0, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 1, 0)  \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 0, 1) \big \}$&nbsp; wird nun die Vorgehensweise bei der Syndromdecodierung im Detail  beschrieben.
 +
[[Datei:P ID2362 KC T 1 5 S3b v2.png|right|frame|Beispielhafte&nbsp; $\text{(5,&nbsp;2,&nbsp;3)}$–Syndromtabelle  mit Nebenklassen|class=fit]]
 +
Die Generatormatrix und die Prüfmatrix lauten:
  
:<math>{ \boldsymbol{\rm G}}  
+
::<math>{ \boldsymbol{\rm G} }  
 
=  \begin{pmatrix}
 
=  \begin{pmatrix}
 
1 &0 &1 &1 &0 \\
 
1 &0 &1 &1 &0 \\
 
0 &1 &0 &1 &1
 
0 &1 &0 &1 &1
\end{pmatrix} \hspace{0.05cm}, \hspace{0.4cm} { \boldsymbol{\rm H}}  
+
\end{pmatrix} \hspace{0.05cm},</math>
 +
::<math>{ \boldsymbol{\rm H} }  
 
=  \begin{pmatrix}
 
=  \begin{pmatrix}
 
1 &0 &1 &0 &0 \\
 
1 &0 &1 &0 &0 \\
Zeile 144: Zeile 154:
 
\end{pmatrix} \hspace{0.05cm}.</math>
 
\end{pmatrix} \hspace{0.05cm}.</math>
  
Die Tabelle fasst das Endergebnis zusammen.<br>
+
Die Tabelle fasst das Endergebnis zusammen. Beachten Sie: 
 +
*Der Index&nbsp; $\mu$&nbsp; ist nicht identisch mit dem Binärwert von&nbsp; $\underline{s}_\mu$.
 +
*Die Reihenfolge ergibt sich vielmehr durch die Anzahl der Einsen im Nebenklassenanführer&nbsp; $\underline{e}_\mu$.
 +
*Beispielsweise ist das Syndrom&nbsp; $\underline{s}_5 = (1, 1, 0)$&nbsp; und  das Syndrom&nbsp;  $\underline{s}_6 =  (1, 0, 1)$.<br>
  
[[Datei:P ID2362 KC T 1 5 S3b v2.png|Beispielhafte (5, 2, 3)–Syndromtabelle  mit Nebenklassen|class=fit]]<br>
 
  
 
Zur Herleitung dieser Tabelle ist anzumerken:
 
Zur Herleitung dieser Tabelle ist anzumerken:
*Die Zeile 1 bezieht sich auf das Syndrom <i><u>s</u></i><sub>0</sub> = (0, 0, 0) und die dazugehörige Nebenklasse <i>&Psi;</i><sub>0</sub>. Am wahrscheinlichsten ist hier die Fehlerfolge (0, 0, 0, 0, 0) &#8658; kein Bitfehler, die wir als Nebenklassenanführer <i><u>e</u></i><sub>0</sub> bezeichnen. Auch die weiteren Einträge in der ersten Zeile, nämlich (1, 0, 1, 1, 0 ), (0, 1, 0, 1, 1) und (1, 1, 1, 0, 1 ), liefern jeweils das Syndrom <i><u>s</u></i><sub>0</sub> = (0, 0, 0), ergeben sich aber nur mit mindestens drei Bitfehlern und sind entsprechend unwahrscheinlich.<br>
+
*Die Zeile 1 bezieht sich auf das Syndrom&nbsp; $\underline{s}_0 = (0, 0, 0)$&nbsp; und die dazugehörige Nebenklasse&nbsp; ${\it \Psi}_0$. Am wahrscheinlichsten ist hier die Fehlerfolge&nbsp; $(0, 0, 0, 0, 0)$ &nbsp; &#8658; &nbsp; kein Bitfehler, die wir als Nebenklassenanführer&nbsp; $\underline{e}_0$&nbsp; bezeichnen.
 +
*Auch die weiteren Einträge in der ersten Zeile, nämlich&nbsp; $(1, 0, 1, 1, 0 )$,&nbsp;  $(0, 1, 0, 1, 1)$&nbsp; und&nbsp; $(1, 1, 1, 0, 1 )$, liefern jeweils das Syndrom&nbsp; $\underline{s}_0 = (0, 0, 0)$, ergeben sich aber nur mit mindestens drei Bitfehlern und sind entsprechend unwahrscheinlich.<br>
 +
 
 +
*In den Zeilen 2 bis 6 beinhaltet der jeweilige Nebenklassenanführer&nbsp; $\underline{e}_\mu$&nbsp; genau eine einzige Eins&nbsp; $(\mu = 1$, ... , $5)$. Dabei ist&nbsp; $\underline{e}_\mu$&nbsp; stets das wahrscheinlichste Fehlermuster der Klasse&nbsp; ${\it \Psi}_\mu$. Die anderen Gruppenmitglieder ergeben sich erst bei mindestens zwei Bitfehlern.<br>
 +
 
 +
*Das Syndrom&nbsp; $\underline{s}_6 = (1, 0, 1)$&nbsp; ist mit nur einem Bitfehler nicht möglich. Bei der Erstellung der Tabelle wurden daraufhin alle&nbsp; $5\text{ über }2 = 10$&nbsp; Fehlermuster&nbsp;  $\underline{e}$&nbsp; mit Gewicht&nbsp; $w_{\rm H}(\underline{e})  = 2$&nbsp; betrachtet.
 +
*Die zuerst gefundene Folge mit dem  Syndrom&nbsp; $\underline{s}_6 = (1, 0, 1)$&nbsp; wurde als Nebenklassenanführer&nbsp; $\underline{e}_6 = (1, 1, 0, 0, 0)$&nbsp;  ausgewählt. Bei anderer Probierreihenfolge hätte sich auch die Folge&nbsp; $(0, 0, 1, 0, 1)$ aus ${\it \Psi}_6$&nbsp; ergeben können.<br>
 +
 
 +
*Ähnlich wurde bei der Bestimmung des Anführers&nbsp; $\underline{e}_7  = (0, 1, 1, 0, 0)$&nbsp; der Nebenklasse&nbsp; ${\it \Psi}_7$&nbsp; vorgegangen, die durch das einheitliche Syndrom&nbsp; $\underline{s}_7 = (1, 1, 1)$&nbsp; gekennzeichnet ist. Auch in der Klasse&nbsp; ${\it \Psi}_7$&nbsp; gibt es eine weitere Folge mit Hamming&ndash;Gewicht&nbsp; $w_{\rm H}(\underline{e})  = 2$, nämlich&nbsp; $(1, 0, 0, 0, 1)$.<br><br>
 +
 
 +
Die obige Tabelle muss nur einmal erstellt und kann beliebig oft genutzt werden. Zunächst muss das Syndrom ermittelt werden. Dieses
 +
lautet beispielsweise für den  Empfangsvektor&nbsp;  $\underline{y} = (0, 1, 0, 0, 1)$:
 +
::<math>\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H} }^{\rm T} = \begin{pmatrix}
 +
0 &1 &0 &0 &1
 +
\end{pmatrix} \cdot
 +
\begin{pmatrix}
 +
1 &1 &0 \\
 +
0 &1 &1 \\
 +
1 &0 &0 \\
 +
0 &1 &0 \\
 +
0 &0 &1 \\
 +
\end{pmatrix} = \begin{pmatrix}
 +
0 &1 &0
 +
\end{pmatrix}= \underline{s}_2
 +
\hspace{0.05cm}.</math>
 +
 
 +
Mit dem Nebenklassenanführer&nbsp; $\underline{e}_2 = (0, 0, 0, 1, 0)$&nbsp; aus obiger Tabelle $($roter Eintrag für &nbsp;$\mu =2)$&nbsp; gelangt man schließlich zum Decodierergebnis:
 +
 
 +
::<math>\underline{z} = \underline{y}  + \underline{e}_2  = (0,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 1) + (0,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 0) = (0,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 1)
 +
\hspace{0.05cm}.</math>}}
 +
 
 +
 
 +
{{BlaueBox|TEXT= 
 +
$\text{Fazit:}$&nbsp; Aus diesen Beispielen geht schon hervor, dass die&nbsp; '''Syndromdecodierung mit einem erheblichen Aufwand''' &nbsp;verbunden ist, wenn man nicht wie bei zyklischen Codes gewisse Eigenschaften nutzen kann:
 +
*Bei großen Blockcodelängen versagt diese Methode vollständig. So müsste man zur Decodierung eines&nbsp; [https://de.wikipedia.org/wiki/BCH-Code BCH&ndash;Codes]&nbsp; &ndash; die Abkürzung steht für deren Erfinder '''B'''ose, '''C'''haudhuri und  '''H'''ocquenghem &ndash; mit den Codeparametern&nbsp; $n =  511$,&nbsp; $k = 259$&nbsp; und&nbsp; $d_{\rm min} = 61$&nbsp; genau&nbsp; $2^{511-259} \approx 10^{76}$&nbsp; Fehlermuster der Länge&nbsp; $511$&nbsp; auswerten und abspeichern.
 +
*Für diese und auch für andere Codes großer Blocklänge gibt es aber erfreulicherweise spezielle Decodieralgorithmen, die mit weniger Aufwand zum Erfolg führen.}}
 +
 
 +
== Codiergewinn – Bitfehlerrate bei AWGN ==
 +
<br>
 +
Wir betrachten nun die&nbsp; [[Digitalsignalübertragung/Fehlerwahrscheinlichkeit_bei_Basisbandübertragung#Definition_der_Bitfehlerquote| Bitfehlerquote]] &nbsp; (oder Bitfehlerrate, &nbsp; englisch: <i>Bit Error Rate</i>&nbsp;, BER) &nbsp; für folgende Konstellation:
 +
[[Datei:P ID2364 KC T 1 5 S4 v2.png|right|frame|Bitfehlerrate bei&nbsp; $\text{(7, 4, 3)}$–Hamming–Codierung|class=fit]]
 +
*Hamming&ndash;Code&nbsp; $\text{HC (7, 4, 3)}$,<br>
 +
 
 +
*AWGN&ndash;Kanal, gekennzeichnet durch den Quotienten&nbsp; $E_{\rm B}/N_0$ (in dB),<br>
 +
 
 +
*Maximum&ndash;Likelihood&ndash;Detektion (ML) mit&nbsp; <i>Hard Decision</i>&nbsp; bzw. &nbsp;<i>Soft Decision</i>.
 +
 
 +
 
 +
Zu dieser Grafik ist anzumerken:
 +
*Die schwarze Vergleichskurve gilt beispielsweise für die binäre Phasenmodulation (BPSK) ohne Codierung. Hierfür benötigt man für die Bitfehlerrate&nbsp; $10^{-5}$&nbsp; etwa&nbsp; $10 \cdot  \lg \, E_{\rm B}/N_0 = 9.6 \, \rm dB$.<br>
 +
 
 +
*Die roten Kreise gelten für den&nbsp; [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Einige_Eigenschaften_des_.287.2C_4.2C_3.29.E2.80.93Hamming.E2.80.93Codes|$\text{(7, 4, 3)}$&ndash;Code]]&nbsp; und harte Entscheidungen des Maximum&ndash;Likelihood&ndash;Decoders&nbsp; $\text{(ML&ndash;HD)}$. Die Syndromdecodierung ist hierfür eine mögliche Realisierungsform.<br>
 +
 
 +
*Diese Konfiguration bringt erst für&nbsp; $10 \cdot  \lg \, E_{\rm B}/N_0  >6 \, \rm dB$&nbsp;  eine Verbesserung gegenüber dem Vergleichssystem. Für&nbsp; $\rm BER =10^{-5}$&nbsp; benötigt man nur noch&nbsp; $10 \cdot  \lg \, E_{\rm B}/N_0 \approx 9.2 \, \rm dB$.<br>
 +
 
 +
*Die grünen Kreuze für den Hamming&ndash;Code und&nbsp; [[Kanalcodierung/Klassifizierung_von_Signalen#ML.E2.80.93Entscheidung_beim_AWGN.E2.80.93Kanal| Soft&ndash;Decision]]&nbsp;  $\text{(ML&ndash;SD)}$&nbsp; liegen im gesamten Bereich unterhalb der Vergleichskurve. Für&nbsp; $\rm BER =10^{-5}$&nbsp; ergibt sich&nbsp; $10 \cdot  \lg \, E_{\rm B}/N_0 \approx 7.8 \, \rm dB$.<br><br>
 +
 
 +
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; Als&nbsp; '''Codiergewinn'''&nbsp; einer Systemkonfiguration (gekennzeichnet durch seinen Code und die Art der Decodierung) bezeichnen wir das gegenüber dem Vergleichssystem (ohne Codierung) kleinere&nbsp; $10 \cdot  \lg \, E_{\rm B}/N_0$, das für eine vorgegebene Bitfehlerrate&nbsp; $\rm (BER)$&nbsp; erforderlich ist:
 +
 
 +
::<math>G_{\rm Code} (\hspace{0.05cm}{\rm System}\hspace{0.05cm}\vert\hspace{0.05cm}{\rm BER}\hspace{0.05cm}) =10 \cdot {\rm lg}\hspace{0.1cm}{E}_{\rm B}/N_0
 +
\hspace{0.15cm}(\hspace{0.05cm}{\rm ohne\hspace{0.1cm} Codierung}\hspace{0.05cm}\vert\hspace{0.05cm}{\rm BER}\hspace{0.05cm})-
 +
10 \cdot {\rm lg}\hspace{0.1cm}{E}_{\rm B}/N_0
 +
\hspace{0.15cm}(\hspace{0.05cm}{\rm System}\hspace{0.05cm}\vert\hspace{0.05cm}{\rm BER}\hspace{0.05cm}) 
 +
\hspace{0.05cm}. </math>}}<br>
 +
 
 +
Angewendet auf die obige Grafik erhält man:
 +
 
 +
:<math>G_{\rm Code} (\hspace{0.05cm}{\rm Hamming \hspace{0.1cm}(7,\hspace{0.02cm}4,\hspace{0.02cm}3), ML-HD}\hspace{0.05cm}|\hspace{0.05cm}{\rm BER} = 10^{-5}\hspace{0.05cm}) = 0.4\ {\rm dB}\hspace{0.05cm},</math>
 +
 
 +
:<math>G_{\rm Code} (\hspace{0.05cm}{\rm Hamming \hspace{0.1cm}(7,\hspace{0.02cm}4,\hspace{0.02cm}3), ML-SD}\hspace{0.05cm}|\hspace{0.05cm}{\rm BER} = 10^{-5}\hspace{0.05cm}) = 1.8\ {\rm dB}\hspace{0.05cm}.</math><br>
 +
 
 +
== Decodierung beim Binary Erasure Channel ==
 +
<br>
 +
Abschließend soll noch gezeigt werden, in wie weit der Decoder zu modifizieren ist, wenn anstelle des&nbsp; [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Symmetric_Channel_.E2.80.93_BSC| BSC&ndash;Modells]]&nbsp; (<i>Binary Symmetric Channel</i>&nbsp;) das&nbsp; [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Erasure_Channel_.E2.80.93_BEC| BEC&ndash;Kanalmodell]]&nbsp; (<i>Binary Erasure Channel</i>&nbsp;) zum Einsatz kommt, der keine Fehler produziert, sondern  unsichere Bit als Auslöschungen markiert.<br>
 +
 
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 4:}$&nbsp; Ohne Einschränkung der Allgemeingültigkeit betrachten wir wie im&nbsp; [[Kanalcodierung/Decodierung_linearer_Blockcodes#Verallgemeinerung_der_Syndromdecodierung|$\text{Beispiel 3}$]]&nbsp; wieder den systematischen&nbsp; $\text{(5, 2, 3)}$&ndash;Blockcode&nbsp;
 +
:$$\mathcal{C} = \big \{ (0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm}(0, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 1, 0) \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 0, 1) \big \}.$$
 +
 
 +
[[Datei:KC_T_1_5_S5nev.png|right|frame|Zur Fehlerkorrektur bei BSC und BEC]]
 +
Die Grafik zeigt das Systemmodell und gibt beispielhafte Werte für die einzelnen Vektoren wider.
 +
*Der linke Bildteil (gelb hinterlegt) gilt für &bdquo;BSC&rdquo; mit einem  Bitfehler&nbsp; $0 &#8594; 1$&nbsp; beim dritten Bit.
 +
*Der rechte Bildteil (grün hinterlegt) gilt für &bdquo;BEC&rdquo; und zeigt zwei&nbsp; <i>Erasures</i>&nbsp; $\rm 1 &#8594; E$&nbsp; bei Bit 2 und Bit 4.
 +
 
 +
 
 +
Man erkennt:
 +
*Bei BSC kann wegen&nbsp; $d_{\rm min} = 3$&nbsp; nur ein Bitfehler korrigiert werden&nbsp;  ($t = 1$, rot markiert).  Beschränkt man sich auf Fehlererkennung, so funktioniert diese bis zu&nbsp; $e= d_{\rm min} -1 = 2$ &nbsp; Bitfehler.<br>
 +
 
 +
*Bei BEC macht Fehlererkennung keinen Sinn, denn bereits der Kanal lokalisiert ein unsicheres Bit als <i>Erasure</i>&nbsp; $\rm E$&nbsp; (Auslöschung). Die Nullen und Einsen im BEC&ndash;Empfangswort&nbsp; $\underline{y}$&nbsp; sind sicher. Deshalb funktioniert hier die Fehlerkorrektur bis zu&nbsp; $e = 2$&nbsp; Auslöschungen mit Sicherheit.<br>
 +
 
 +
*Auch&nbsp; $e = 3$&nbsp; Auslöschungen sind manchmal noch korrigierbar. So kann&nbsp; $\underline{y} \rm = (E, E, E, 1, 1)$&nbsp; zu&nbsp; $\underline{z} \rm = (0, 1, 0, 1, 1)$&nbsp;  korrigiert werden, da kein zweites Codewort mit zwei Einsen endet. $\underline{y} \rm = (0, E, 0, E, E)$&nbsp; ist aber aufgrund des im Code erlaubten Nullwortes nicht korrigierbar.<br>
 +
 
 +
*Wird sichergestellt, dass in keinem Empfangswort mehr als zwei Auslöschungen vorkommen, so ist die BEC&ndash;Blockfehlerwahrscheinlichkeit&nbsp; ${\rm Pr}(\underline{z} \ne  \underline{x}) = {\rm Pr}(\underline{v} \ne  \underline{u}) \equiv 0$. Dagegen hat die entsprechende Blockfehlerwahrscheinlichkeit beim BSC&ndash;Modell stets einen Wert größer als&nbsp; $0$.
 +
 
 +
 
 +
Da nach dem BEC ein jedes Empfangswort entweder richtig oder gar nicht decodiert wird, nennen wir hier den Block&nbsp; $\underline{y} &#8594; \underline{z}$&nbsp;  zukünftig &bdquo;Codewortfinder&rdquo;. Eine &bdquo;Schätzung&rdquo; findet nur beim BSC&ndash;Modell statt.<br>}}<br>
 +
 
 +
Wie funktioniert aber nun die Decodierung eines Empfangswortes&nbsp;  $\underline{y}$&nbsp;  mit Auslöschungen algorithmisch?
 +
 
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 5:}$&nbsp;  Ausgehend vom Empfangswort&nbsp; $\underline{y} \rm = (0, E, 0, E, 1)$&nbsp; im&nbsp; $\text{Beispiel 4}$&nbsp; setzen wir den Ausgang des Codewortfinders formal zu&nbsp; $\underline{z} \rm = (0, z_2, 0, z_4, 1)$, wobei die Symbole&nbsp; $z_2 \in \{0, \, 1\}$ und $z_4 \in \{0, \, 1\}$&nbsp; entsprechend folgender Gleichung zu bestimmen sind:
 +
 
 +
::<math>\underline{z} \cdot { \boldsymbol{\rm H} }^{\rm T}= \underline{0}
 +
\hspace{0.3cm} \Rightarrow \hspace{0.3cm}
 +
{ \boldsymbol{\rm H} } \cdot \underline{z}^{\rm T}= \underline{0}^{\rm T} \hspace{0.05cm}.</math>
 +
 
 +
Es geht nun darum, diese Bestimmungsgleichung möglichst effizient umzusetzen. Es ergeben sich folgende Rechenschritte:
 +
*Mit der Prüfmatrix&nbsp; $\boldsymbol{\rm H}$&nbsp; des&nbsp; $\text{(5, 2, 3)}$&ndash;Blockcodes und dem Vektor&nbsp; $\underline{z} \rm = (0, z_2, 0, z_4, 1)$&nbsp; lautet die obige Bestimmungsgleichung:
 +
 
 +
::<math>{ \boldsymbol{\rm H} } \cdot \underline{z}^{\rm T}
 +
=  \begin{pmatrix}
 +
1 &0 &1 &0 &0\\
 +
1 &1 &0 &1 &0\\
 +
0 &1 &0 &0 &1
 +
\end{pmatrix} \cdot \begin{pmatrix}
 +
0 \\
 +
z_2 \\
 +
0 \\
 +
z_4 \\
 +
1
 +
\end{pmatrix} = \begin{pmatrix}
 +
0 \\
 +
0 \\
 +
0
 +
\end{pmatrix} 
 +
\hspace{0.05cm}.</math>
 +
 
 +
*Wir fassen die sicheren (korrekten) Bit zum Vektor&nbsp; $\underline{z}_{\rm K}$&nbsp; zusammen und die ausgelöschten Bit zum Vektor&nbsp; $\underline{z}_{\rm E}$. Dann teilen wir die Prüfmatrix&nbsp; $\boldsymbol{\rm H}$&nbsp; in die entsprechenden Teilmatrizen&nbsp; $\boldsymbol{\rm H}_{\rm K}$&nbsp; und&nbsp; $\boldsymbol{\rm H}_{\rm E}$&nbsp; auf:
 +
 
 +
::<math>\underline{z}_{\rm K} =(0, 0, 1)\hspace{0.05cm},\hspace{0.3cm} { \boldsymbol{\rm H} }_{\rm K}= 
 +
\begin{pmatrix}
 +
1 &1 &0\\
 +
1 &0 &0\\
 +
0 &0 &1
 +
\end{pmatrix}
 +
\hspace{0.3cm}\Rightarrow\hspace{0.3cm}
 +
{\rm Spalten\hspace{0.15cm} 1,\hspace{0.15cm}3 \hspace{0.15cm}und \hspace{0.15cm}5 \hspace{0.15cm}der \hspace{0.15cm}Pr\ddot{u}fmatrix}
 +
\hspace{0.05cm},</math>
 +
::<math>\underline{z}_{\rm E} = (z_2, z_4)\hspace{0.05cm},\hspace{0.35cm} { \boldsymbol{\rm H} }_{\rm E}= 
 +
\begin{pmatrix}
 +
0 &0\\
 +
1 &1\\
 +
1 &0
 +
\end{pmatrix}
 +
\hspace{0.9cm}\Rightarrow\hspace{0.3cm}
 +
{\rm Spalten\hspace{0.15cm} 2 \hspace{0.15cm}und \hspace{0.15cm}4 \hspace{0.15cm}der \hspace{0.15cm}Pr\ddot{u}fmatrix}
 +
\hspace{0.05cm}.</math>
 +
 
 +
*Unter Berücksichtigung der Tatsache, dass in&nbsp; $\rm GF(2)$&nbsp; die Subtraktion gleich der Addition ist, lässt sich die obige Gleichung wie folgt darstellen:
 +
 
 +
::<math>{ \boldsymbol{\rm H} }_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T}
 +
+
 +
{ \boldsymbol{\rm H} }_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T}= \underline{0}^{\rm T}
 +
\hspace{0.3cm} \Rightarrow \hspace{0.3cm}
 +
{ \boldsymbol{\rm H} }_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T}=
 +
{ \boldsymbol{\rm H} }_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T} \hspace{0.3cm}
 +
\Rightarrow \hspace{0.3cm}
 +
\begin{pmatrix}
 +
0 &0\\
 +
1 &1\\
 +
1 &0
 +
\end{pmatrix} \cdot 
 +
\begin{pmatrix}
 +
z_2 \\
 +
z_4 
 +
\end{pmatrix} =
 +
\begin{pmatrix}
 +
1 &1 &0\\
 +
1 &0 &0\\
 +
0 &0 &1
 +
\end{pmatrix} \cdot
 +
\begin{pmatrix}
 +
0 \\
 +
0 \\
 +
 +
\end{pmatrix} = \begin{pmatrix}
 +
0 \\
 +
0 \\
 +
 +
\end{pmatrix}
 +
\hspace{0.05cm}.</math>
 +
 
 +
*Dies führt zu einem linearen Gleichungssystem mit zwei Gleichungen für die unbekannten&nbsp; $z_2$&nbsp; und&nbsp; $z_4$&nbsp; $($jeweils&nbsp; $0$&nbsp; oder&nbsp; $1)$.
 +
*Aus der letzten Zeile folgt&nbsp; $z_2 = 1$&nbsp; und aus der zweiten Zeile&nbsp;  $z_2 + z_4 = 0$ &nbsp; &#8658; &nbsp; $z_4 = 1$.
 +
*Damit ergibt sich das zulässige Codewort&nbsp; $\underline{z} \rm = (0, 1, 0, 1, 1)$.}}<br>
 +
 
 +
== Aufgaben zum Kapitel ==
 +
<br>
 +
[[Aufgaben:1.11_Syndromdecodierung|Aufgabe 1.11: Syndromdecodierung]]
  
*In den Zeilen 2 bis 6 beinhaltet der jeweilige Nebenklassenanführer <i><u>e</u></i><sub><i>&mu;</i></sub> genau eine einzige Eins. Dementsprechend ist <i><u>e</u></i><sub><i>&mu;</i></sub> stets das wahrscheinlichste Fehlermuster der Klasse <i>&Psi;<sub>&mu;</sub></i> (<i>&mu;</i> = 1, ... , 5). Die &bdquo;Mitläufer&rdquo; ergeben sich erst bei mindestens zwei Übertragungsfehlern.<br>
+
[[Aufgaben:Aufgabe_1.11Z:_Nochmals_Syndromdecodierung|Aufgabe 1.11Z: Nochmals Syndromdecodierung]]
  
*Das Syndrom <i><u>s</u></i><sub>6</sub> = (1, 0, 1) ist mit nur einem Bitfehler nicht möglich. Bei der Erstellung obiger Tabelle wurden daraufhin alle &bdquo;5 über 2&rdquo; = 10 Fehlermuster <i><u>e</u></i> mit Gewicht <i>w</i><sub>H</sub>(<i><u>e</u></i>)  = 2 betrachtet. Die zuerst gefundene Folge mit  Syndrom <i><u>s</u></i><sub>6</sub> = (1, 0, 1) wurde als <i><u>e</u></i><sub>6</sub> = (1, 1, 0, 0, 0)  ausgewählt. Bei anderer Probierreihenfolge hätte sich auch die Folge (0, 0, 1, 0, 1) aus <i>&Psi;</i><sub>6</sub> ergeben können.<br>
+
[[Aufgaben:Aufgabe_1.12:_Hard_Decision_vs._Soft_Decision|Aufgabe 1.12: Hard Decision vs. Soft_Decision]]
  
*Ähnlich wurde bei der Bestimmung des Anführers <i><u>e</u></i><sub>7</sub> = (0, 1, 1, 0, 0) der Nebenklasse <i>&Psi;</i><sub>7</sub> vorgegangen, die durch das einheitliche Syndrom <i><u>s</u></i><sub>7</sub> = (1, 1, 1) gekennzeichnet ist. Auch in der Klasse <i>&Psi;</i><sub>7</sub> gibt es eine weitere Folge mit Hamming&ndash;Gewicht <i>w</i><sub>H</sub>(<i><u>e</u></i>) = 2, nämlich (1, 0, 0, 0, 1).<br><br>
+
[[Aufgaben:Aufgabe_1.12Z:_Vergleich_von_HC_(7,_4,_3)_und_HC_(8,_4,_4)|Aufgabe 1.12Z: Vergleich von HC (7, 4, 3) und HC (8, 4, 4)]]
  
Die Beschreibung wird auf der nächsten Seite fortgesetzt.<br>
+
[[Aufgaben:Aufgabe_1.13:_Decodierung_beim_binären_Auslöschungskanal_(BEC)|Aufgabe 1.13: Decodierung beim binären Auslöschungskanal (BEC)]]
  
 +
[[Aufgaben:Aufgabe_1.13Z:_Nochmals_BEC–Decodierung|Aufgabe 1.13Z: Nochmals BEC–Decodierung]]
  
 
{{Display}}
 
{{Display}}

Aktuelle Version vom 20. Juli 2022, 15:38 Uhr

Blockschaltbild und Voraussetzungen


Wir gehen von dem bereits im Kapitel  "Kanalmodelle und Entscheiderstrukturen"  gezeigten Blockschaltbild aus,  wobei als Kanalmodell meist der  "Binary Symmetric Channel"  $\rm (BSC)$  verwendet wird.  Zur Codewortschätzung verwenden wir den  "Maximum–Likelihood–Entscheider"  $\rm (ML)$,  der für binäre Codes   ⇒   $\underline{x} \in {\rm GF}(2^n)$  auf Blockebene das gleiche Ergebnis liefert wie der  "MAP–Empfänger".

Blockschaltbild zur Decodierung von Blockcodes

Die Aufgabe des Kanaldecoders kann wie folgt beschrieben werden:

  • Der Vektor  $\underline{v}$  nach der Decodierung (an der Sinke) soll möglichst gut mit dem Informationswort  $\underline{u}$  übereinstimmen.
    Das heißt:   Die  Blockfehlerwahrscheinlichkeit  soll möglichst klein sein:
\[{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{v} \ne \underline{u}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.\]
  • Aufgrund der deterministischen Zuweisungen  $\underline{x} = {\rm enc}(\underline{u})$  bzw.  $\underline{v} = {\rm enc}^{-1}(\underline{z})$  gilt aber auch:
\[{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{z} \ne \underline{x}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.\]
  • Gesucht ist somit das zum gegebenen Empfangswort  $\underline{y} = \underline{x} +\underline{e}$  am wahrscheinlichsten gesendete Codewort  $\underline{x}_i$, das als Ergebnis  $\underline{z}$  weiter gegeben wird:
\[\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} {\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}|\hspace{0.05cm} \underline{y} ) \hspace{0.05cm}.\]
  • Beim BSC–Kanal gilt sowohl  $\underline{x}_i \in {\rm GF}(2^n)$  als auch  $\underline{y} \in {\rm GF}(2^n)$, so dass die Maximum–Likelihood–Regel auch mit der  Hamming–Distanz  $d_{\rm H}( \underline{y}, \, \underline{x}_i)$  geschrieben werden kann:
\[\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}.\]

Prinzip der Syndromdecodierung


Vorausgesetzt wird hier ein  $(n, \, k)$–Blockcode mit der Prüfmatrix  $\boldsymbol{\rm H}$  und den systematischen Codeworten

\[\underline{x}\hspace{0.05cm} = (x_1, x_2, \hspace{0.05cm}\text{...} \hspace{0.05cm}, x_i, \hspace{0.05cm}\text{...} \hspace{0.05cm}, x_n) = (u_1, u_2, \hspace{0.05cm}\text{...} \hspace{0.05cm}, u_k, p_1, \hspace{0.05cm}\text{...} \hspace{0.05cm}, p_{n-k})\hspace{0.05cm}. \]

Mit dem Fehlervektor  $\underline{e}$  gilt dann für das Empfangswort:

\[\underline{y} = \underline{x} + \underline{e} \hspace{0.05cm}, \hspace{0.4cm} \underline{y} \in \hspace{0.1cm} {\rm GF}(2^n) \hspace{0.05cm}, \hspace{0.4cm} \underline{x} \in \hspace{0.1cm} {\rm GF}(2^n) \hspace{0.05cm}, \hspace{0.4cm} \underline{e} \in \hspace{0.1cm} {\rm GF}(2^n) \hspace{0.05cm}.\]

Ein Bitfehler an der Position  $i$, das heißt  $y_i ≠ x_i$, wird ausgedrückt durch den Fehlerkoeffizienten  $e_i = 1$.

$\text{Definition:}$  Das  Syndrom  $\underline{s} = (s_0, s_1, \hspace{0.05cm}\text{...} \hspace{0.05cm}, s_{m-1})$  berechnet sich (als Zeilen– bzw. Spaltenvektor) aus dem Empfangswort  $\underline{y}$  und der Prüfmatrix  $\boldsymbol{\rm H}$  wie folgt:

\[\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H} }^{\rm T}\hspace{0.3cm}{\rm bzw.}\hspace{0.3cm} \underline{s}^{\rm T} = { \boldsymbol{\rm H} } \cdot \underline{y}^{\rm T}\hspace{0.05cm}.\]

Die Vektorlänge von  $\underline{s}$  ist gleich  $m = n-k$  $($Zeilenzahl von  $\boldsymbol{\rm H})$.


Das Syndrom  $\underline{s}$  zeigt folgende Charakteristika:

  • Wegen der Gleichung  $\underline{x} \cdot { \boldsymbol{\rm H}}^{\rm T} = \underline{0}$  hängt das Syndrom  $\underline{s}$  nicht vom Codewort  $\underline{x}$  ab, sondern allein vom Fehlervektor  $\underline{e}$:
\[\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H}}^{\rm T} = \hspace{0.05cm} \underline{x} \cdot { \boldsymbol{\rm H}}^{\rm T} + \hspace{0.05cm} \underline{e} \cdot { \boldsymbol{\rm H}}^{\rm T} = \hspace{0.05cm} \underline{e} \cdot { \boldsymbol{\rm H}}^{\rm T} \hspace{0.05cm}.\]
  • Bei hinreichend wenig Bitfehlern liefert  $\underline{s}$  einen eindeutigen Hinweis auf die Fehlerpositionen und ermöglicht so eine vollständige Fehlerkorrektur.

$\text{Beispiel 1:}$  Ausgehend vom systematischen  $\text{(7, 4, 3)}$–Hamming–Code erhält man für den Empfangsvektor  $\underline{y} = (0, 1, 1, 1, 0, 0, 1)$  das folgende Ergebnis:

\[{ \boldsymbol{\rm H} } \cdot \underline{y}^{\rm T} = \begin{pmatrix} 1 &1 &1 &0 &1 &0 &0\\ 0 &1 &1 &1 &0 &1 &0\\ 1 &1 &0 &1 &0 &0 &1 \end{pmatrix} \cdot \begin{pmatrix} 0 \\ 1 \\ 1 \\ 1 \\ 0 \\ 0 \\ 1 \end{pmatrix} = \begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix} = \underline{s}^{\rm T} \hspace{0.05cm}.\]

Vergleicht man das Syndrom mit den  Prüfgleichungen  des Hamming–Codes, so erkennt man, dass

  • am wahrscheinlichsten das vierte Symbol  $(x_4 = u_4)$  des Codewortes verfälscht wurde,
  • der Codewortschätzer somit das Ergebnis  $\underline{z} = (0, 1, 1, 0, 0, 0, 1)$  liefern wird,
  • die Entscheidung nur dann richtig ist, wenn bei der Übertragung nur ein Bit verfälscht wurde.

Nachfolgend sind die erforderlichen Korrekturen für den  $\text{(7, 4, 3)}$–Hamming–Code angegeben, die sich aus dem errechneten Syndrom  $\underline{s}$  entsprechend den Spalten der Prüfmatrix ergeben:

\[\underline{s} = (0, 0, 0) \hspace{0.10cm} \Rightarrow\hspace{0.10cm}{\rm keine\hspace{0.15cm} Korrektur}\hspace{0.05cm};\hspace{0.8cm}\underline{s} = (1, 0, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm}p_1{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\]
\[\underline{s} =(0, 0, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} p_3{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{1.22cm}\underline{s} = (1, 0, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_1{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\]
\[\underline{s} =(0, 1, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} p_2{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{1.22cm}\underline{s} = (1, 1, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_3{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\]
\[\underline{s} =(0, 1, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_4{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{1.22cm}\underline{s} = (1, 1, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_2{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm}. \]


Verallgemeinerung der Syndromdecodierung


Wir gehen weiterhin vom BSC–Kanalmodell aus. Das bedeutet:

  • Der Empfangsvektor  $\underline{y}$  und der Fehlervektor  $\underline{e}$  sind Elemente von  ${\rm GF}(2^n)$.
  • Die möglichen Codeworte  $\underline{x}_i$  gehören zum Code  $\mathcal{C}$, der einen  $(n-k)$–dimensionalen Untervektorraum von  ${\rm GF}(2^n)$  aufspannt.


Unter dieser Voraussetzung fassen wir die Ergebnisse der letzten Seiten nochmals kurz zusammen:

  • Die Syndromdecodierung ist eine Realisierungsmöglichkeit der Maximum–Likelihood–Detektion von Blockcodes. Man entscheidet sich für das Codewort  $\underline{x}_i$  mit der geringsten Hamming–Distanz zum Empfangswort  $\underline{y}$ :
\[\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}.\]
  • Die Syndromdecodierung ist aber auch die Suche nach dem wahrscheinlichsten Fehlervektor  $\underline{e}$, der die Bedingung  $\underline{e} \cdot { \boldsymbol{\rm H}}^{\rm T} = \underline{s}$  erfüllt. Das  Syndrom  liegt dabei durch die Gleichung  $\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H}}^{\rm T} $  fest.
  • Mit dem  Hamming–Gewicht  $w_{\rm H}(\underline{e})$  kann die zweite Interpretation auch wie folgt mathematisch formuliert werden:
\[\underline{z} = \underline{y} + {\rm arg} \min_{\underline{e}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} {\rm GF}(2^n)} \hspace{0.1cm} w_{\rm H}(\underline{e}_{\hspace{0.03cm}i})\hspace{0.05cm}.\]

$\text{Fazit:}$  Zu beachten ist, dass der Fehlervektor  $\underline{e}$  ebenso wie der Empfangsvektor  $\underline{y}$  ein Element von  ${\rm GF}(2^n)$  ist im Gegensatz zum Syndrom  $\underline{s} \in {\rm GF}(2^m)$  mit der Anzahl  $m = n-k$  der Prüfgleichungen. Das bedeutet,

  • dass die Zuordnung zwischen dem Syndrom  $\underline{s}$  und dem Fehlervektor  $\underline{e}$  nicht eindeutig ist, sondern
  • dass jeweils  $2^k$  Fehlervektoren zum gleichen Syndrom  $\underline{s}$  führen, die man zu einer  Nebenklasse  (englisch:   Coset ) zusammenfasst.


$\text{Beispiel 2:}$  Der Sachverhalt soll hier am Beispiel  $n = 5, \ k = 2$   ⇒   $m = n-k = 3$  verdeutlicht werden.

Aufteilung der  $2^k$  Fehlervektoren in  „Cosets”

Man erkennt aus dieser Grafik:

  • Die  $2^n = 32$  möglichen Fehlervektoren  $\underline{e}$  werden in  $2^m = 8$  „Cosets”  ${\it \Psi}_0$,  ...  , ${\it \Psi}_7$  aufgeteilt.
  • Explizit gezeichnet sind hier nur die Cosets  ${\it \Psi}_0$  und  ${\it \Psi}_5$.
  • Alle  $2^k = 4$  Fehlervektoren des Cosets  ${\it \Psi}_\mu$  führen zum Syndrom  $\underline{s}_\mu$.
  • Jede Nebenklasse  ${\it \Psi}_\mu$  hat einen Anführer  $\underline{e}_\mu$, nämlich denjenigen mit dem minimalen Hamming–Gewicht.


$\text{Beispiel 3:}$  Ausgehend vom systematischen  $\text{(5, 2, 3)}$–Code  $\mathcal{C} = \big \{ (0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm}(0, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 1, 0) \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 0, 1) \big \}$  wird nun die Vorgehensweise bei der Syndromdecodierung im Detail beschrieben.

Beispielhafte  $\text{(5, 2, 3)}$–Syndromtabelle mit Nebenklassen

Die Generatormatrix und die Prüfmatrix lauten:

\[{ \boldsymbol{\rm G} } = \begin{pmatrix} 1 &0 &1 &1 &0 \\ 0 &1 &0 &1 &1 \end{pmatrix} \hspace{0.05cm},\]
\[{ \boldsymbol{\rm H} } = \begin{pmatrix} 1 &0 &1 &0 &0 \\ 1 &1 &0 &1 &0 \\ 0 &1 &0 &0 &1 \end{pmatrix} \hspace{0.05cm}.\]

Die Tabelle fasst das Endergebnis zusammen. Beachten Sie:

  • Der Index  $\mu$  ist nicht identisch mit dem Binärwert von  $\underline{s}_\mu$.
  • Die Reihenfolge ergibt sich vielmehr durch die Anzahl der Einsen im Nebenklassenanführer  $\underline{e}_\mu$.
  • Beispielsweise ist das Syndrom  $\underline{s}_5 = (1, 1, 0)$  und das Syndrom  $\underline{s}_6 = (1, 0, 1)$.


Zur Herleitung dieser Tabelle ist anzumerken:

  • Die Zeile 1 bezieht sich auf das Syndrom  $\underline{s}_0 = (0, 0, 0)$  und die dazugehörige Nebenklasse  ${\it \Psi}_0$. Am wahrscheinlichsten ist hier die Fehlerfolge  $(0, 0, 0, 0, 0)$   ⇒   kein Bitfehler, die wir als Nebenklassenanführer  $\underline{e}_0$  bezeichnen.
  • Auch die weiteren Einträge in der ersten Zeile, nämlich  $(1, 0, 1, 1, 0 )$,  $(0, 1, 0, 1, 1)$  und  $(1, 1, 1, 0, 1 )$, liefern jeweils das Syndrom  $\underline{s}_0 = (0, 0, 0)$, ergeben sich aber nur mit mindestens drei Bitfehlern und sind entsprechend unwahrscheinlich.
  • In den Zeilen 2 bis 6 beinhaltet der jeweilige Nebenklassenanführer  $\underline{e}_\mu$  genau eine einzige Eins  $(\mu = 1$, ... , $5)$. Dabei ist  $\underline{e}_\mu$  stets das wahrscheinlichste Fehlermuster der Klasse  ${\it \Psi}_\mu$. Die anderen Gruppenmitglieder ergeben sich erst bei mindestens zwei Bitfehlern.
  • Das Syndrom  $\underline{s}_6 = (1, 0, 1)$  ist mit nur einem Bitfehler nicht möglich. Bei der Erstellung der Tabelle wurden daraufhin alle  $5\text{ über }2 = 10$  Fehlermuster  $\underline{e}$  mit Gewicht  $w_{\rm H}(\underline{e}) = 2$  betrachtet.
  • Die zuerst gefundene Folge mit dem Syndrom  $\underline{s}_6 = (1, 0, 1)$  wurde als Nebenklassenanführer  $\underline{e}_6 = (1, 1, 0, 0, 0)$  ausgewählt. Bei anderer Probierreihenfolge hätte sich auch die Folge  $(0, 0, 1, 0, 1)$ aus ${\it \Psi}_6$  ergeben können.
  • Ähnlich wurde bei der Bestimmung des Anführers  $\underline{e}_7 = (0, 1, 1, 0, 0)$  der Nebenklasse  ${\it \Psi}_7$  vorgegangen, die durch das einheitliche Syndrom  $\underline{s}_7 = (1, 1, 1)$  gekennzeichnet ist. Auch in der Klasse  ${\it \Psi}_7$  gibt es eine weitere Folge mit Hamming–Gewicht  $w_{\rm H}(\underline{e}) = 2$, nämlich  $(1, 0, 0, 0, 1)$.

Die obige Tabelle muss nur einmal erstellt und kann beliebig oft genutzt werden. Zunächst muss das Syndrom ermittelt werden. Dieses lautet beispielsweise für den Empfangsvektor  $\underline{y} = (0, 1, 0, 0, 1)$:

\[\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H} }^{\rm T} = \begin{pmatrix} 0 &1 &0 &0 &1 \end{pmatrix} \cdot \begin{pmatrix} 1 &1 &0 \\ 0 &1 &1 \\ 1 &0 &0 \\ 0 &1 &0 \\ 0 &0 &1 \\ \end{pmatrix} = \begin{pmatrix} 0 &1 &0 \end{pmatrix}= \underline{s}_2 \hspace{0.05cm}.\]

Mit dem Nebenklassenanführer  $\underline{e}_2 = (0, 0, 0, 1, 0)$  aus obiger Tabelle $($roter Eintrag für  $\mu =2)$  gelangt man schließlich zum Decodierergebnis:

\[\underline{z} = \underline{y} + \underline{e}_2 = (0,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 1) + (0,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 0) = (0,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 1) \hspace{0.05cm}.\]


$\text{Fazit:}$  Aus diesen Beispielen geht schon hervor, dass die  Syndromdecodierung mit einem erheblichen Aufwand  verbunden ist, wenn man nicht wie bei zyklischen Codes gewisse Eigenschaften nutzen kann:

  • Bei großen Blockcodelängen versagt diese Methode vollständig. So müsste man zur Decodierung eines  BCH–Codes  – die Abkürzung steht für deren Erfinder Bose, Chaudhuri und Hocquenghem – mit den Codeparametern  $n = 511$,  $k = 259$  und  $d_{\rm min} = 61$  genau  $2^{511-259} \approx 10^{76}$  Fehlermuster der Länge  $511$  auswerten und abspeichern.
  • Für diese und auch für andere Codes großer Blocklänge gibt es aber erfreulicherweise spezielle Decodieralgorithmen, die mit weniger Aufwand zum Erfolg führen.

Codiergewinn – Bitfehlerrate bei AWGN


Wir betrachten nun die  Bitfehlerquote   (oder Bitfehlerrate,   englisch: Bit Error Rate , BER)   für folgende Konstellation:

Bitfehlerrate bei  $\text{(7, 4, 3)}$–Hamming–Codierung
  • Hamming–Code  $\text{HC (7, 4, 3)}$,
  • AWGN–Kanal, gekennzeichnet durch den Quotienten  $E_{\rm B}/N_0$ (in dB),
  • Maximum–Likelihood–Detektion (ML) mit  Hard Decision  bzw.  Soft Decision.


Zu dieser Grafik ist anzumerken:

  • Die schwarze Vergleichskurve gilt beispielsweise für die binäre Phasenmodulation (BPSK) ohne Codierung. Hierfür benötigt man für die Bitfehlerrate  $10^{-5}$  etwa  $10 \cdot \lg \, E_{\rm B}/N_0 = 9.6 \, \rm dB$.
  • Die roten Kreise gelten für den  $\text{(7, 4, 3)}$–Code  und harte Entscheidungen des Maximum–Likelihood–Decoders  $\text{(ML–HD)}$. Die Syndromdecodierung ist hierfür eine mögliche Realisierungsform.
  • Diese Konfiguration bringt erst für  $10 \cdot \lg \, E_{\rm B}/N_0 >6 \, \rm dB$  eine Verbesserung gegenüber dem Vergleichssystem. Für  $\rm BER =10^{-5}$  benötigt man nur noch  $10 \cdot \lg \, E_{\rm B}/N_0 \approx 9.2 \, \rm dB$.
  • Die grünen Kreuze für den Hamming–Code und  Soft–Decision  $\text{(ML–SD)}$  liegen im gesamten Bereich unterhalb der Vergleichskurve. Für  $\rm BER =10^{-5}$  ergibt sich  $10 \cdot \lg \, E_{\rm B}/N_0 \approx 7.8 \, \rm dB$.

$\text{Definition:}$  Als  Codiergewinn  einer Systemkonfiguration (gekennzeichnet durch seinen Code und die Art der Decodierung) bezeichnen wir das gegenüber dem Vergleichssystem (ohne Codierung) kleinere  $10 \cdot \lg \, E_{\rm B}/N_0$, das für eine vorgegebene Bitfehlerrate  $\rm (BER)$  erforderlich ist:

\[G_{\rm Code} (\hspace{0.05cm}{\rm System}\hspace{0.05cm}\vert\hspace{0.05cm}{\rm BER}\hspace{0.05cm}) =10 \cdot {\rm lg}\hspace{0.1cm}{E}_{\rm B}/N_0 \hspace{0.15cm}(\hspace{0.05cm}{\rm ohne\hspace{0.1cm} Codierung}\hspace{0.05cm}\vert\hspace{0.05cm}{\rm BER}\hspace{0.05cm})- 10 \cdot {\rm lg}\hspace{0.1cm}{E}_{\rm B}/N_0 \hspace{0.15cm}(\hspace{0.05cm}{\rm System}\hspace{0.05cm}\vert\hspace{0.05cm}{\rm BER}\hspace{0.05cm}) \hspace{0.05cm}. \]


Angewendet auf die obige Grafik erhält man:

\[G_{\rm Code} (\hspace{0.05cm}{\rm Hamming \hspace{0.1cm}(7,\hspace{0.02cm}4,\hspace{0.02cm}3), ML-HD}\hspace{0.05cm}|\hspace{0.05cm}{\rm BER} = 10^{-5}\hspace{0.05cm}) = 0.4\ {\rm dB}\hspace{0.05cm},\]

\[G_{\rm Code} (\hspace{0.05cm}{\rm Hamming \hspace{0.1cm}(7,\hspace{0.02cm}4,\hspace{0.02cm}3), ML-SD}\hspace{0.05cm}|\hspace{0.05cm}{\rm BER} = 10^{-5}\hspace{0.05cm}) = 1.8\ {\rm dB}\hspace{0.05cm}.\]

Decodierung beim Binary Erasure Channel


Abschließend soll noch gezeigt werden, in wie weit der Decoder zu modifizieren ist, wenn anstelle des  BSC–Modells  (Binary Symmetric Channel ) das  BEC–Kanalmodell  (Binary Erasure Channel ) zum Einsatz kommt, der keine Fehler produziert, sondern unsichere Bit als Auslöschungen markiert.

$\text{Beispiel 4:}$  Ohne Einschränkung der Allgemeingültigkeit betrachten wir wie im  $\text{Beispiel 3}$  wieder den systematischen  $\text{(5, 2, 3)}$–Blockcode 

$$\mathcal{C} = \big \{ (0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm}(0, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 1, 0) \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 0, 1) \big \}.$$
Zur Fehlerkorrektur bei BSC und BEC

Die Grafik zeigt das Systemmodell und gibt beispielhafte Werte für die einzelnen Vektoren wider.

  • Der linke Bildteil (gelb hinterlegt) gilt für „BSC” mit einem Bitfehler  $0 → 1$  beim dritten Bit.
  • Der rechte Bildteil (grün hinterlegt) gilt für „BEC” und zeigt zwei  Erasures  $\rm 1 → E$  bei Bit 2 und Bit 4.


Man erkennt:

  • Bei BSC kann wegen  $d_{\rm min} = 3$  nur ein Bitfehler korrigiert werden  ($t = 1$, rot markiert). Beschränkt man sich auf Fehlererkennung, so funktioniert diese bis zu  $e= d_{\rm min} -1 = 2$   Bitfehler.
  • Bei BEC macht Fehlererkennung keinen Sinn, denn bereits der Kanal lokalisiert ein unsicheres Bit als Erasure  $\rm E$  (Auslöschung). Die Nullen und Einsen im BEC–Empfangswort  $\underline{y}$  sind sicher. Deshalb funktioniert hier die Fehlerkorrektur bis zu  $e = 2$  Auslöschungen mit Sicherheit.
  • Auch  $e = 3$  Auslöschungen sind manchmal noch korrigierbar. So kann  $\underline{y} \rm = (E, E, E, 1, 1)$  zu  $\underline{z} \rm = (0, 1, 0, 1, 1)$  korrigiert werden, da kein zweites Codewort mit zwei Einsen endet. $\underline{y} \rm = (0, E, 0, E, E)$  ist aber aufgrund des im Code erlaubten Nullwortes nicht korrigierbar.
  • Wird sichergestellt, dass in keinem Empfangswort mehr als zwei Auslöschungen vorkommen, so ist die BEC–Blockfehlerwahrscheinlichkeit  ${\rm Pr}(\underline{z} \ne \underline{x}) = {\rm Pr}(\underline{v} \ne \underline{u}) \equiv 0$. Dagegen hat die entsprechende Blockfehlerwahrscheinlichkeit beim BSC–Modell stets einen Wert größer als  $0$.


Da nach dem BEC ein jedes Empfangswort entweder richtig oder gar nicht decodiert wird, nennen wir hier den Block  $\underline{y} → \underline{z}$  zukünftig „Codewortfinder”. Eine „Schätzung” findet nur beim BSC–Modell statt.


Wie funktioniert aber nun die Decodierung eines Empfangswortes  $\underline{y}$  mit Auslöschungen algorithmisch?

$\text{Beispiel 5:}$  Ausgehend vom Empfangswort  $\underline{y} \rm = (0, E, 0, E, 1)$  im  $\text{Beispiel 4}$  setzen wir den Ausgang des Codewortfinders formal zu  $\underline{z} \rm = (0, z_2, 0, z_4, 1)$, wobei die Symbole  $z_2 \in \{0, \, 1\}$ und $z_4 \in \{0, \, 1\}$  entsprechend folgender Gleichung zu bestimmen sind:

\[\underline{z} \cdot { \boldsymbol{\rm H} }^{\rm T}= \underline{0} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} { \boldsymbol{\rm H} } \cdot \underline{z}^{\rm T}= \underline{0}^{\rm T} \hspace{0.05cm}.\]

Es geht nun darum, diese Bestimmungsgleichung möglichst effizient umzusetzen. Es ergeben sich folgende Rechenschritte:

  • Mit der Prüfmatrix  $\boldsymbol{\rm H}$  des  $\text{(5, 2, 3)}$–Blockcodes und dem Vektor  $\underline{z} \rm = (0, z_2, 0, z_4, 1)$  lautet die obige Bestimmungsgleichung:
\[{ \boldsymbol{\rm H} } \cdot \underline{z}^{\rm T} = \begin{pmatrix} 1 &0 &1 &0 &0\\ 1 &1 &0 &1 &0\\ 0 &1 &0 &0 &1 \end{pmatrix} \cdot \begin{pmatrix} 0 \\ z_2 \\ 0 \\ z_4 \\ 1 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} \hspace{0.05cm}.\]
  • Wir fassen die sicheren (korrekten) Bit zum Vektor  $\underline{z}_{\rm K}$  zusammen und die ausgelöschten Bit zum Vektor  $\underline{z}_{\rm E}$. Dann teilen wir die Prüfmatrix  $\boldsymbol{\rm H}$  in die entsprechenden Teilmatrizen  $\boldsymbol{\rm H}_{\rm K}$  und  $\boldsymbol{\rm H}_{\rm E}$  auf:
\[\underline{z}_{\rm K} =(0, 0, 1)\hspace{0.05cm},\hspace{0.3cm} { \boldsymbol{\rm H} }_{\rm K}= \begin{pmatrix} 1 &1 &0\\ 1 &0 &0\\ 0 &0 &1 \end{pmatrix} \hspace{0.3cm}\Rightarrow\hspace{0.3cm} {\rm Spalten\hspace{0.15cm} 1,\hspace{0.15cm}3 \hspace{0.15cm}und \hspace{0.15cm}5 \hspace{0.15cm}der \hspace{0.15cm}Pr\ddot{u}fmatrix} \hspace{0.05cm},\]
\[\underline{z}_{\rm E} = (z_2, z_4)\hspace{0.05cm},\hspace{0.35cm} { \boldsymbol{\rm H} }_{\rm E}= \begin{pmatrix} 0 &0\\ 1 &1\\ 1 &0 \end{pmatrix} \hspace{0.9cm}\Rightarrow\hspace{0.3cm} {\rm Spalten\hspace{0.15cm} 2 \hspace{0.15cm}und \hspace{0.15cm}4 \hspace{0.15cm}der \hspace{0.15cm}Pr\ddot{u}fmatrix} \hspace{0.05cm}.\]
  • Unter Berücksichtigung der Tatsache, dass in  $\rm GF(2)$  die Subtraktion gleich der Addition ist, lässt sich die obige Gleichung wie folgt darstellen:
\[{ \boldsymbol{\rm H} }_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T} + { \boldsymbol{\rm H} }_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T}= \underline{0}^{\rm T} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} { \boldsymbol{\rm H} }_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T}= { \boldsymbol{\rm H} }_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} \begin{pmatrix} 0 &0\\ 1 &1\\ 1 &0 \end{pmatrix} \cdot \begin{pmatrix} z_2 \\ z_4 \end{pmatrix} = \begin{pmatrix} 1 &1 &0\\ 1 &0 &0\\ 0 &0 &1 \end{pmatrix} \cdot \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} \hspace{0.05cm}.\]
  • Dies führt zu einem linearen Gleichungssystem mit zwei Gleichungen für die unbekannten  $z_2$  und  $z_4$  $($jeweils  $0$  oder  $1)$.
  • Aus der letzten Zeile folgt  $z_2 = 1$  und aus der zweiten Zeile  $z_2 + z_4 = 0$   ⇒   $z_4 = 1$.
  • Damit ergibt sich das zulässige Codewort  $\underline{z} \rm = (0, 1, 0, 1, 1)$.


Aufgaben zum Kapitel


Aufgabe 1.11: Syndromdecodierung

Aufgabe 1.11Z: Nochmals Syndromdecodierung

Aufgabe 1.12: Hard Decision vs. Soft_Decision

Aufgabe 1.12Z: Vergleich von HC (7, 4, 3) und HC (8, 4, 4)

Aufgabe 1.13: Decodierung beim binären Auslöschungskanal (BEC)

Aufgabe 1.13Z: Nochmals BEC–Decodierung