Digitalsignalübertragung/Bündelfehlerkanäle: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(40 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt)
Zeile 6: Zeile 6:
 
}}
 
}}
  
== Kanalmodell nach Gilbert–Elliott (1) ==
+
== Kanalmodell nach Gilbert–Elliott==
 
<br>
 
<br>
Dieses auf E.&nbsp;N. Gilbert [Gil60]<ref>Gilbert, E. N.: ''Capacity of Burst–Noise Channel.'' In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.</ref> und E.&nbsp;O. Elliott [Ell63]<ref>]Elliott, E.O.: ''Estimates of Error Rates for Codes on Burst–Noise Channels.'' In: Bell Syst. Techn. J., Vol. 42, (1963), pp. 1253 1266.</ref> zurückgehende Kanalmodell eignet sich zur Beschreibung und Simulation von digitalen Übertragungssystemen mit Bündelfehlercharakteristik.
+
Dieses auf&nbsp; [https://en.wikipedia.org/wiki/Edgar_Gilbert E.&nbsp;N. Gilbert] &nbsp;[Gil60]<ref name='Gil60'>Gilbert, E. N.:&nbsp; Capacity of Burst–Noise Channel.&nbsp; In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.</ref>&nbsp; und &nbsp;E.&nbsp;O. Elliott&nbsp; [Ell63]<ref name='Ell63'>Elliott, E.O.:&nbsp; Estimates of Error Rates for Codes on Burst–Noise Channels.&nbsp; In: Bell Syst. Techn. J., Vol. 42, (1963), pp. 1977 1997.</ref>&nbsp; zurückgehende Kanalmodell eignet sich zur Beschreibung und Simulation von digitalen ''Übertragungssystemen mit Bündelfehlercharakteristik''.
  
[[Datei:P ID1835 Dig T 5 3 S1 version1.png|Gilbert–Elliott–Kanalmodell|class=fit]]<br>
+
[[Datei:P ID1835 Dig T 5 3 S1 version1.png|center|frame|Gilbert–Elliott–Kanalmodell mit zwei Zuständen|class=fit]]
  
Das Gilbert&ndash;Elliott&ndash;Modell (Kurzbezeichnung: GE&ndash;Modell) lässt sich wie folgt charakterisieren:
+
Das&nbsp; '''Gilbert&ndash;Elliott&ndash;Modell'''&nbsp; (Kurzbezeichnung: GE&ndash;Modell) lässt sich wie folgt charakterisieren:
*Die unterschiedliche Übertragungsqualität zu unterschiedlichen Zeiten wird durch eine endliche Anzahl <i>g</i> von Kanalzuständen (<i>Z</i><sub>1</sub>, <i>Z</i><sub>2</sub>, ..., <i>Z<sub>g</sub></i>) ausgedrückt.<br>
+
*Die unterschiedliche Übertragungsqualität zu unterschiedlichen Zeiten wird durch eine endliche Anzahl&nbsp; $g$&nbsp; von Kanalzuständen&nbsp; $(Z_1, Z_2,\hspace{0.05cm} \text{...} \hspace{0.05cm}, Z_g)$&nbsp; ausgedrückt.<br>
  
 
*Die in Wirklichkeit fließenden Übergänge der Störintensität &ndash; im Extremfall von völlig fehlerfreier Übertragung bis hin zum Totalausfall &ndash; werden beim GE&ndash;Modell durch feste Wahrscheinlichkeiten in den einzelnen Kanalzuständen approximiert.<br>
 
*Die in Wirklichkeit fließenden Übergänge der Störintensität &ndash; im Extremfall von völlig fehlerfreier Übertragung bis hin zum Totalausfall &ndash; werden beim GE&ndash;Modell durch feste Wahrscheinlichkeiten in den einzelnen Kanalzuständen approximiert.<br>
  
*Die Übergänge zwischen den <i>g</i> Zuständen erfolgen gemäß einem <i>Markovprozess</i> (1. Ordnung) und werden durch <i>g</i> &middot; (<i>g</i> &ndash; 1) Übergangswahrscheinlichkeiten gekennzeichnet. Zusammen mit den <i>g</i> Fehlerwahrscheinlichkeiten in den einzelnen Zuständen gibt es somit <i>g</i><sup>2</sup> freie Modellparameter.<br>
+
*Die Übergänge zwischen den&nbsp; $g$&nbsp; Zuständen erfolgen gemäß einem&nbsp; [[Stochastische_Signaltheorie/Markovketten|Markovprozess]]&nbsp; (1. Ordnung) und werden durch&nbsp; $g \cdot (g-1)$&nbsp; Übergangswahrscheinlichkeiten gekennzeichnet. Zusammen mit den&nbsp; $g$&nbsp; Fehlerwahrscheinlichkeiten in den einzelnen Zuständen gibt es somit&nbsp; $g^2$&nbsp; freie Modellparameter.<br>
  
*Aus Gründen der mathematischen Handhabbarkeit beschränkt man sich meist auf <i>g</i> = 2 Zustände und bezeichnet diese mit &bdquo;G&rdquo; (GOOD) und &bdquo;B&rdquo; (BAD). Meist wird die Fehlerwahrscheinlichkeit im Zustand &bdquo;G&rdquo; sehr viel kleiner sein als im Zustand &bdquo;B&rdquo;.<br>
+
*Aus Gründen der mathematischen Handhabbarkeit beschränkt man sich meist auf&nbsp; $g = 2$&nbsp; Zustände und bezeichnet diese mit&nbsp; $\rm G$&nbsp; (&bdquo;GOOD&rdquo;) und&nbsp; $\rm B$&nbsp; (&bdquo;BAD&rdquo;). Meist wird die Fehlerwahrscheinlichkeit im Zustand&nbsp; $\rm G$&nbsp; sehr viel kleiner sein als im Zustand&nbsp; $\rm B$.<br>
  
*Im Folgenden benutzen wir diese beiden Fehlerwahrscheinlichkeiten <i>p</i><sub>G</sub> und <i>p</i><sub>B</sub>, wobei <i>p</i><sub>G</sub> < <i>p</i><sub>B</sub> gelten soll, sowie die Übergangswahrscheinlichkeiten Pr(B|G) und Pr(G|B). Damit sind auch die beiden anderen Übergangswahrscheinlichkeiten festgelegt:
+
*Im Folgenden benutzen wir diese beiden Fehlerwahrscheinlichkeiten&nbsp; $p_{\rm G}$&nbsp; und&nbsp; $p_{\rm B}$, wobei&nbsp; $p_{\rm G} < p_{\rm B}$&nbsp; gelten soll, sowie die Übergangswahrscheinlichkeiten&nbsp; ${\rm Pr}({\rm B}\hspace{0.05cm}|\hspace{0.05cm}{\rm G})$&nbsp; und&nbsp; ${\rm Pr}({\rm G}\hspace{0.05cm}|\hspace{0.05cm}{\rm B})$. Damit sind auch die beiden anderen Übergangswahrscheinlichkeiten festgelegt:
  
 
::<math>{\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G) = 1 - {\rm
 
::<math>{\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G) = 1 - {\rm
Zeile 28: Zeile 28:
 
G\hspace{0.05cm}|\hspace{0.05cm} B)\hspace{0.05cm}.</math>
 
G\hspace{0.05cm}|\hspace{0.05cm} B)\hspace{0.05cm}.</math>
  
== Kanalmodell nach Gilbert–Elliott (2) ==
+
[[Datei:P ID1837 Dig T 5 3 S1b version1.png|right|frame|Beispielhafte GE–Fehlerfolge|class=fit]]
<br>
+
{{GraueBox|TEXT=
Beispielhaft betrachten wir nun das GE&ndash;Modell mit den Parametern
+
$\text{Beispiel 1:}$&nbsp; Wir betrachten das GE&ndash;Modell mit den Parametern
  
:<math>p_{\rm G} = 0.01, \hspace{0.2cm}p_{\rm B} = 0.4,
+
:$$p_{\rm G} = 0.01,$$
\hspace{0.2cm}{\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B) =
+
:$$p_{\rm B} = 0.4,$$
0.1, \hspace{0.2cm} {\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm}
+
:$${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) =
G) = 0.01\hspace{0.05cm}.</math>
+
0.1, $$
 +
:$$ {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}
 +
G) = 0.01\hspace{0.05cm}.$$
 +
Das zugrundeliegende Modell ist am Beispielende mit den hier angegebenen Parametern dargestellt.
  
[[Datei:P ID1836 Dig T 5 3 S1a version1.png|Betrachtetes GE–Modell|class=fit]]<br>
+
Die obere Grafik zeigt eine  (mögliche) Fehlerfolge der Länge&nbsp; $N = 800$. Befindet sich das GE&ndash;Modell im Zustand &bdquo;BAD&rdquo;, so erkennt man dies an der grauen Hinterlegung.
  
Die nachfolgende Grafik zeigt eine dazugehörige (mögliche) Fehlerfolge der Länge <i>N</i> = 800.<br>
+
Zur Simulation einer solchen GE&ndash;Fehlerfolge wird zwischen den Zuständen &bdquo;GOOD&rdquo;  und &bdquo;BAD&rdquo; entsprechend den vier Übergangswahrscheinlichkeiten umgeschaltet.
 +
*Beim ersten Aufruf erfolgt die Auswahl des Zustandes zweckmäßigerweise gemäß den Wahrscheinlichkeiten&nbsp; $w_{\rm G}$&nbsp; und&nbsp; $w_{\rm B}$, wie nachfolgend berechnet.<br>
 +
*Zu jedem Taktzeitpunkt wird genau ein Element der Fehlerfolge&nbsp; $ \langle e_\nu  \rangle$&nbsp; entsprechend der aktuellen  Fehlerwahrscheinlichkeit&nbsp; $(p_{\rm G}$&nbsp; bzw. &nbsp;$p_{\rm B})$&nbsp; erzeugt.
 +
*Die&nbsp; [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|Fehlerabstandssimulation]]&nbsp; ist hier nicht anwendbar, da beim GE&ndash;Modell ein Zustandswechsel nach jedem Symbol (und nicht nur nach einem Fehler) möglich ist.
  
[[Datei:P ID1837 Dig T 5 3 S1b version1.png|Beispielhafte GE–Fehlerfolge|class=fit]]<br>
 
  
Befindet sich das GE&ndash;Modell im Zustand &bdquo;BAD&rdquo;, so erkennt man dies an der grauen Hinterlegung. Die Wahrscheinlichkeiten, dass sich die Markovkette im Zustand &bdquo;G&rdquo; bzw. &bdquo;B&rdquo; befindet, lassen sich aus der vorausgesetzten Homogenität und Stationarität berechnen. Man erhält mit den obigen Zahlenwerten:
+
Die Wahrscheinlichkeiten, dass sich die Markovkette im Zustand &bdquo;GOOD&rdquo; bzw. &bdquo;BAD&rdquo; befindet, lassen sich aus der vorausgesetzten Homogenität und Stationarität berechnen. Man erhält mit den obigen Zahlenwerten:
  
:<math>w_{\rm G} \hspace{-0.15cm}  = \hspace{-0.15cm}
+
::<math>w_{\rm G} =
 
{\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}G)}=
 
{\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}G)}=
\frac{{\rm Pr}(\rm
+
\frac{ {\rm Pr}(\rm
G\hspace{0.05cm}|\hspace{0.05cm} B)}{{\rm Pr}(\rm
+
G\hspace{0.05cm}\vert\hspace{0.05cm} B)}{ {\rm Pr}(\rm
G\hspace{0.05cm}|\hspace{0.05cm} B) + {\rm Pr}(\rm
+
G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm
B\hspace{0.05cm}|\hspace{0.05cm} G)} = \frac{0.1}{0.1 + 0.01} =
+
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.1}{0.1 + 0.01} =
 
{10}/{11}\hspace{0.05cm},</math>
 
{10}/{11}\hspace{0.05cm},</math>
:<math>w_{\rm B} \hspace{-0.15cm}  = \hspace{-0.15cm}
+
::<math>w_{\rm B} =
 
{\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}B)}=
 
{\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}B)}=
  \frac{{\rm Pr}(\rm
+
  \frac{ {\rm Pr}(\rm
B\hspace{0.05cm}|\hspace{0.05cm} G)}{{\rm Pr}(\rm
+
B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm
G\hspace{0.05cm}|\hspace{0.05cm} B) + {\rm Pr}(\rm
+
G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm
B\hspace{0.05cm}|\hspace{0.05cm} G)} = \frac{0.11}{0.1 + 0.01} =
+
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.11}{0.1 + 0.01} =
 
{1}/{11}\hspace{0.05cm}.</math>
 
{1}/{11}\hspace{0.05cm}.</math>
 +
[[Datei:P ID1836 Dig T 5 3 S1a version1.png|right|frame|Betrachtetes GE–Modell|class=fit]]
  
Damit kann auch die mittlere Fehlerwahrscheinlichkeit des GE&ndash;Modells ermittelt werden:
+
Mit diesen beiden Zustandswahrscheinlichkeiten kann auch die mittlere Fehlerwahrscheinlichkeit des GE&ndash;Modells ermittelt werden:
  
:<math>p_{\rm M} = w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B}
+
::<math>p_{\rm M} = w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B}
 
=  \frac{p_{\rm G} \cdot {\rm Pr}({\rm
 
=  \frac{p_{\rm G} \cdot {\rm Pr}({\rm
G\hspace{0.05cm}|\hspace{0.05cm} B)}+ p_{\rm B} \cdot {\rm Pr}(\rm
+
G\hspace{0.05cm}\vert\hspace{0.05cm} B)}+ p_{\rm B} \cdot {\rm Pr}(\rm
B\hspace{0.05cm}|\hspace{0.05cm} G)}{{\rm Pr}(\rm
+
B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm
G\hspace{0.05cm}|\hspace{0.05cm} B) + {\rm Pr}(\rm
+
G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm
B\hspace{0.05cm}|\hspace{0.05cm} G)} \hspace{0.05cm}.</math>
+
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} \hspace{0.05cm}.</math>
  
 
Insbesondere gilt für das hier beispielhaft betrachtete Modell:
 
Insbesondere gilt für das hier beispielhaft betrachtete Modell:
  
:<math>p_{\rm M} ={10}/{11} \cdot 0.01 +{1}/{11} \cdot 0.4 =
+
::<math>p_{\rm M} ={10}/{11} \cdot 0.01 +{1}/{11} \cdot 0.4 =
{1}/{22} \approx 4.55\%\hspace{0.05cm}.</math>
+
{1}/{22} \approx 4.55\%\hspace{0.05cm}.</math>}}<br>
 
 
Zur Simulation einer GE&ndash;Fehlerfolge wird zwischen den Zuständen &bdquo;G&rdquo;  und &bdquo;B&rdquo; entsprechend den vier Übergangswahrscheinlichkeiten umgeschaltet. Beim ersten Aufruf erfolgt die Auswahl des Zustandes zweckmäßigerweise entsprechend den Wahrscheinlichkeiten <i>w</i><sub>G</sub> und <i>w</i><sub>B</sub>.<br>
 
 
 
Zu jedem Taktzeitpunkt wird genau ein Element der Fehlerfolge &#9001;<i>e<sub>&nu;</sub></i>&#9002; entsprechend der aktuellen  Fehlerwahrscheinlichkeit (<i>p</i><sub>G</sub> bzw. <i>p</i><sub>B</sub>) erzeugt. Die Simulation des Fehlerabstandes ist hier nicht anwendbar, da ein Zustandswechsel nach jedem Symbol (und nicht nur nach einem Fehler) möglich ist.<br>
 
  
 
== Fehlerabstandsverteilung des GE–Modells ==
 
== Fehlerabstandsverteilung des GE–Modells ==
 
<br>
 
<br>
In [Hub82]<ref>Huber, J.: <i>Codierung für gedächtnisbehaftete Kanäle.</i> Dissertation – Universität der Bundeswehr München, 1982.</ref> finden sich die analytischen Berechnungen
+
[[Datei:P ID1838 Dig T 5 3 S2 version1.png|right|frame|Fehlerabstandsverteilung von GE– und BSC–Modell|class=fit]]
*der Wahrscheinlichkeit des Fehlerabstandes <i>k</i>:
+
In&nbsp; [Hub82]<ref name = 'Hub82'>Huber, J.:&nbsp; Codierung für gedächtnisbehaftete Kanäle.&nbsp; Dissertation – Universität der Bundeswehr München, 1982.</ref>&nbsp; finden sich die analytischen Berechnungen
 +
 
 +
*der Wahrscheinlichkeit des Fehlerabstandes&nbsp; $k$:
  
 
::<math>{\rm Pr}(a=k) = \alpha_{\rm G} \cdot \beta_{\rm
 
::<math>{\rm Pr}(a=k) = \alpha_{\rm G} \cdot \beta_{\rm
Zeile 88: Zeile 92:
 
B})\hspace{0.05cm},</math>
 
B})\hspace{0.05cm},</math>
  
*der Fehlerabstandsverteilung:
+
*der&nbsp; [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerabstandsverteilung|Fehlerabstandsverteilung]]:
  
 
::<math>V_a(k) = {\rm Pr}(a \ge k) =  \alpha_{\rm G} \cdot \beta_{\rm
 
::<math>V_a(k) = {\rm Pr}(a \ge k) =  \alpha_{\rm G} \cdot \beta_{\rm
Zeile 97: Zeile 101:
 
Hierbei sind folgende Hilfsgrößen verwendet:
 
Hierbei sind folgende Hilfsgrößen verwendet:
  
:<math>u_{\rm GG} \hspace{-0.1cm}  = \hspace{-0.1cm}{\rm Pr}(\rm
+
::<math>u_{\rm GG} ={\rm Pr}(\rm
 
G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G})
 
G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G})
 
\hspace{0.05cm},\hspace{0.2cm}
 
\hspace{0.05cm},\hspace{0.2cm}
Zeile 103: Zeile 107:
 
B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G})
 
B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G})
 
\hspace{0.05cm},</math>
 
\hspace{0.05cm},</math>
:<math>u_{\rm BB} \hspace{-0.1cm}  = \hspace{-0.1cm} {\rm Pr}(\rm
+
::<math>u_{\rm BB} ={\rm Pr}(\rm
 
B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})
 
B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})
 
\hspace{0.05cm},\hspace{0.29cm}
 
\hspace{0.05cm},\hspace{0.29cm}
Zeile 110: Zeile 114:
 
B})\hspace{0.05cm}</math>
 
B})\hspace{0.05cm}</math>
  
:<math>\Rightarrow \hspace{0.3cm} \beta_{\rm G} \hspace{-0.1cm} =  
+
::<math>\Rightarrow \hspace{0.3cm} \beta_{\rm G} =\frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} -
\hspace{-0.1cm}\frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} -
 
 
u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}
 
u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}
 
\hspace{0.05cm},</math>
 
\hspace{0.05cm},</math>
:<math>\hspace{0.8cm}\beta_{\rm B} \hspace{-0.1cm}  = \hspace{-0.1cm}\frac{u_{\rm
+
::<math>\hspace{0.8cm}\beta_{\rm B} =\frac{u_{\rm
 
GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot
 
GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot
 
u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.</math>
 
u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.</math>
  
:<math>x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}}
+
::<math>x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}}
 
\hspace{0.05cm},\hspace{0.2cm}
 
\hspace{0.05cm},\hspace{0.2cm}
 
  x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}</math>
 
  x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}</math>
  
:<math>\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot
+
::<math>\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot
 
p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm
 
p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm
 
B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm},
 
B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm},
Zeile 129: Zeile 132:
 
Die angegebenen Gleichungen sind das Ergebnis umfangreicher Matrizenoperationen.<br>
 
Die angegebenen Gleichungen sind das Ergebnis umfangreicher Matrizenoperationen.<br>
  
[[Datei:P ID1838 Dig T 5 3 S2 version1.png|Fehlerabstandsverteilung von GE– und BSC–Modell|class=fit]]<br>
+
Die obere Grafik zeigt die Fehlerabstandsverteilung (FAV) des GE&ndash;Modells (rote Kurve) in linearer und logarithmischer Darstellung für die Parameter
 +
:$${\rm Pr}(\rm
 +
G\hspace{0.05cm}|\hspace{0.05cm} B ) = 0.1 \hspace{0.05cm},\hspace{0.5cm}{\rm Pr}(\rm
 +
B\hspace{0.05cm}|\hspace{0.05cm} G ) = 0.01 \hspace{0.05cm},\hspace{0.5cm}p_{\rm G} = 0.001, \hspace{0.5cm}p_{\rm B} = 0.4.$$
  
*Die Abbildung zeigt die Fehlerabstandsverteilung (FAV) des GE&ndash;Modells (rote Kurve) in linearer und logarithmischer Darstellung für Pr(G|B) = 0.1, Pr(B|G) = 0.01, <i>p</i><sub>G</sub> = 0.001 und <i>p</i><sub>B</sub> = 0.4.<br>
+
Zum Vergleich ist als blaue Kurve auch der entsprechende&nbsp; $V_a(k)$&ndash;Verlauf für das BSC&ndash;Modell mit der gleichen mittleren  Fehlerwahrscheinlichkeit&nbsp; $p_{\rm M} = 4.5\%$&nbsp; eingezeichnet.<br>
 
 
*Zum Vergleich ist auch der Verlauf von <i>V<sub>a</sub></i>(<i>k</i>) für das BSC&ndash;Modell mit der gleichen mittleren  Fehlerwahrscheinlichkeit <i>p</i><sub>M</sub> = 4.5% als blaue Kurve eingezeichnet.<br>
 
  
 
== Fehlerkorrelationsfunktion des GE–Modells ==
 
== Fehlerkorrelationsfunktion des GE–Modells ==
 
<br>
 
<br>
Für die Fehlerkorrelationsfunktion (FKF) ergibt sich mit der mittleren Fehlerwahrscheinlichkeit <i>p</i><sub>M</sub>, den Übergangswahrscheinlichkeiten Pr(B|G) und Pr(G|B) sowie den Fehlerwahrscheinlichkeiten <i>p</i><sub>G</sub> und <i>p</i><sub>B</sub> in den zwei Zuständen &bdquo;G&rdquo; und &bdquo;B&rdquo; nach umfangreichen Matrizenoperationen der relativ einfache Ausdruck
+
Für die&nbsp; [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerkorrelationsfunktion|Fehlerkorrelationsfunktion]]&nbsp; (FKF) des GE–Modells mit  
 +
*der mittleren Fehlerwahrscheinlichkeit&nbsp; $p_{\rm M}$,  
 +
*den Übergangswahrscheinlichkeiten&nbsp; ${\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )$ und ${\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B )$&nbsp; sowie  
 +
*den Fehlerwahrscheinlichkeiten&nbsp; $p_{\rm G}$&nbsp; und&nbsp; $p_{\rm B}$&nbsp; in den beiden Zuständen&nbsp; $\rm G$&nbsp; und&nbsp; $\rm B$
  
:<math>\varphi_{e}(k) =
+
 
 +
ergibt sich nach umfangreichen Matrizenoperationen der relativ einfache Ausdruck
 +
 
 +
::<math>\varphi_{e}(k) = {\rm E}\big[e_\nu  \cdot  e_{\nu +k}\big] =
 
  \left\{ \begin{array}{c} p_{\rm M} \\
 
  \left\{ \begin{array}{c} p_{\rm M} \\
 
  p_{\rm M}^2 + (p_{\rm B} - p_{\rm M})  (p_{\rm M} - p_{\rm G})  
 
  p_{\rm M}^2 + (p_{\rm B} - p_{\rm M})  (p_{\rm M} - p_{\rm G})  
Zeile 148: Zeile 158:
 
\\  f{\rm \ddot{u}r }\hspace{0.15cm} k > 0 \hspace{0.05cm}.\\ \end{array}</math>
 
\\  f{\rm \ddot{u}r }\hspace{0.15cm} k > 0 \hspace{0.05cm}.\\ \end{array}</math>
  
Der nur für &bdquo;erneuernde Modelle&rdquo; gültige Zusammenhang zwischen FKF und FAV ist hier nicht gegeben (GE&ndash;Modell ist nicht erneuernd!) &nbsp;&#8658;&nbsp; Zur Berechnung unbedingt  <i>&phi;<sub>e</sub></i>(<i>k</i>) = E[<i>e<sub>&nu;</sub></i> &middot; <i>e<sub>&nu;</sub></i><sub>+</sub><i><sub>k</sub></i>] verwenden.<br>
+
Beim GE&ndash;Modell muss&nbsp; $\varphi_{e}(k)$&nbsp; stets nach dieser Gleichung berechnet werden. Der nur für &bdquo;erneuernde Modelle&rdquo; gültige iterative Berechnungsalgorithmus
 +
:$$\varphi_{e}(k) = \sum_{\kappa = 1}^{k} {\rm Pr}(a = \kappa) \cdot
 +
\varphi_{e}(k - \kappa) $$
  
In der Grafik ist ein beispielhafter FKF&ndash;Verlauf des GE&ndash;Modells mit roten Kreisen markiert eingetragen. Während beim gedächtnislosen Kanal (BSC&ndash;Modell, blaue Kurve) alle FKF&ndash;Werte <i>&phi;<sub>e</sub></i>(<i>k</i> &ne; 0) gleich <i>p</i><sub>M</sub><sup>2</sup> sind, nähern sich die FKF&ndash;Werte beim Bündelfehlerkanal diesem Endwert deutlich langsamer.<br>
+
kann hier nicht angewendet werden,  da das GE&ndash;Modell nicht erneuernd ist &nbsp; &#8658; &nbsp; Die Fehlerabstände sind hier nicht statistisch voneinander unabhängig.
  
[[Datei:P ID1839 Dig T 5 3 S3 version1.png|Fehlerkorrelationsfunktion von GE-Modell (Kreise) und BSC-Modell (Kreuze)|class=fit]]<br>
+
[[Datei:P ID1839 Dig T 5 3 S3 version1.png|right|frame|Fehlerkorrelationsfunktion von &bdquo;GE&rdquo; (Kreise) und &bdquo;BSC&rdquo; (Kreuze)|class=fit]]
 
+
In der Grafik ist ein beispielhafter FKF&ndash;Verlauf des GE&ndash;Modells mit roten Kreisen markiert eingetragen. Man erkennt aus dieser Darstellung:
Weiter erkennt man aus dieser Darstellung:
+
*Während beim gedächtnislosen Kanal (BSC&ndash;Modell, blaue Kurve) alle FKF&ndash;Werte&nbsp; $\varphi_{e}(k \ne 0)= p_{\rm M}^2$&nbsp; sind, nähern sich die FKF&ndash;Werte beim Bündelfehlerkanal diesem Endwert deutlich langsamer an.<br>
*Beim Übergang von <i>k</i> = 0 nach <i>k</i> = 1 tritt eine gewisse Unstetigkeit auf. Während <i>&phi;<sub>e</sub></i>(<i>k</i> = 0) = <i>p</i><sub>M</sub> ist, ergibt sich mit der für <i>k</i> > 0 gültigen zweiten Gleichung für <i>k</i> = 0 folgender extrapolierter Wert:
+
*Beim Übergang von&nbsp; $k = 0$&nbsp; nach&nbsp; $k = 1$&nbsp; tritt eine gewisse Unstetigkeit auf. Während&nbsp; $\varphi_{e}(k = 0)= p_{\rm M}$&nbsp; ist, ergibt sich mit der für&nbsp; $k > 0$&nbsp; gültigen zweiten Gleichung für&nbsp; $k = 0$&nbsp; folgender extrapolierter Wert:
  
 
::<math>\varphi_{e0} = p_{\rm M}^2 + (p_{\rm B} - p_{\rm M}) \cdot (p_{\rm
 
::<math>\varphi_{e0} = p_{\rm M}^2 + (p_{\rm B} - p_{\rm M}) \cdot (p_{\rm
 
M} - p_{\rm G})\hspace{0.05cm}.</math>
 
M} - p_{\rm G})\hspace{0.05cm}.</math>
  
*Ein quantitatives Maß für die Länge der statistischen Bindungen ist die Korrelationsdauer  <i>D</i><sub>K</sub>, die allgemein als die Breite eines flächengleichen Rechtecks mit der Höhe <i>&phi;<sub>e</sub></i><sub>0</sub> &ndash; <i>p</i><sub>M</sub><sup>2</sup> definiert ist:
+
*Ein quantitatives Maß für die Länge der statistischen Bindungen ist die Korrelationsdauer&nbsp; $D_{\rm K}$, die allgemein als die Breite eines flächengleichen Rechtecks mit der Höhe&nbsp; $\varphi_{e0} - p_{\rm M}^2$&nbsp; definiert ist:
  
 
::<math>D_{\rm K} = \frac{1}{\varphi_{e0} - p_{\rm M}^2} \cdot \sum_{k = 1
 
::<math>D_{\rm K} = \frac{1}{\varphi_{e0} - p_{\rm M}^2} \cdot \sum_{k = 1
}^{\infty}\hspace{0.1cm} [\varphi_{e}(k) - p_{\rm
+
}^{\infty}\hspace{0.1cm} \big[\varphi_{e}(k) - p_{\rm
M}^2]\hspace{0.05cm}.</math>
+
M}^2\big ]\hspace{0.05cm}.</math>
  
*Beim Gilbert&ndash;Elliott&ndash;Modell erhält man hierfür den einfachen, analytisch angebbaren Ausdruck
+
{{BlaueBox|TEXT= 
 +
$\text{Fazit:}$&nbsp; Beim Gilbert&ndash;Elliott&ndash;Modell erhält man hier die &nbsp;'''Korrelationsdauer'''&nbsp; den einfachen, analytisch angebbaren Ausdruck
  
::<math>D_{\rm K} =\frac{1}{{\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm}
+
::<math>D_{\rm K} =\frac{1}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}
B ) + {\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )}-1
+
B ) + {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G )}-1
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
*<i>D</i><sub>K</sub> ist umso größer, je kleiner Pr(B|G) und Pr(G|B) sind (also Zustandswechsel selten auftreten).  Für das BSC&ndash;Modell (<i>p</i><sub>B</sub> = <i>p</i><sub>G</sub> = <i>p</i><sub>M</sub>, <i>D</i><sub>K</sub> = 0) ist die Gleichung nicht anwendbar.<br>
+
*$D_{\rm K}$&nbsp; ist umso größer, je kleiner&nbsp; ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}
 +
G )$&nbsp; und&nbsp; ${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$&nbsp; sind, also dann, wenn Zustandswechsel selten auftreten.   
 +
*Für das BSC&ndash;Modell &nbsp; &rArr; &nbsp; $p_{\rm B}= p_{\rm G} = p_{\rm M}$ &nbsp; &rArr; &nbsp;  $D_{\rm K} = 0$ ist diese Gleichung nicht anwendbar.}}<br>
  
== Kanalmodell nach McCullough (1) ==
+
== Kanalmodell nach McCullough==
 
<br>
 
<br>
Der wesentliche Nachteil des GE&ndash;Modells ist, dass damit eine Fehlerabstandssimulation nicht möglich ist. Wie in der Aufgabe A5.5 herausgearbeitet wurde, hat diese gegenüber der symbolweisen Generierung der Fehlerfolge &#9001;<i>e<sub>&nu;</sub></i>&#9002; große Vorteile hinsichtlich Rechengeschwindigkeit und Speicherbedarf.<br>
+
Der wesentliche Nachteil des GE&ndash;Modells ist, dass damit eine Fehlerabstandssimulation nicht möglich ist. Wie in der&nbsp; [[Aufgaben:Aufgabe_5.5:_Fehlerfolge_und_Fehlerabstandsfolge|Aufgabe 5.5]]&nbsp; herausgearbeitet wird, hat diese gegenüber der symbolweisen Generierung der Fehlerfolge&nbsp; $\langle e_\nu \rangle$&nbsp; große Vorteile hinsichtlich Rechengeschwindigkeit und Speicherbedarf.<br>
  
McCullough [McC68]<ref>McCullough, R.H.: ''The Binary Regenerative Channel.'' In: Bell Syst. Techn. J. (47), 1968.</ref> hat das drei Jahre zuvor von Gilbert und Elliott entwickelte Modell dahingehend modifiziert, dass eine Fehlerabstandssimulation in den beiden Zustände &bdquo;GOOD&rdquo; und &bdquo;BAD&rdquo; jeweils für sich anwendbar ist. Die Grafik zeigt unten das Modell von McCullough, im Folgenden als MC&ndash;Modell bezeichnet, während oben das GE&ndash;Modell nach Umbenennung der Übergangswahrscheinlichkeiten &#8658; <i>p</i>(B|G) = Pr(B|G), <i>p</i>(G|B) = Pr(G|B) usw. dargestellt ist.<br>
+
McCullough &nbsp;[McC68]<ref name ='McC68'>McCullough, R.H.:&nbsp; The Binary Regenerative Channel.&nbsp; In: Bell Syst. Techn. J. (47), 1968.</ref>&nbsp; hat das drei Jahre zuvor von Gilbert und Elliott entwickelte Modell dahingehend modifiziert, dass eine Fehlerabstandssimulation in den beiden Zustände &bdquo;GOOD&rdquo; und &bdquo;BAD&rdquo; jeweils für sich anwendbar ist. Die Grafik zeigt unten das Modell von McCullough, im Folgenden als &nbsp;'''MC&ndash;Modell'''&nbsp; bezeichnet, während oben das GE&ndash;Modell nach Umbenennung der Übergangswahrscheinlichkeiten &nbsp; &rArr; &nbsp;  ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$,&nbsp; ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$,&nbsp; usw. dargestellt ist.<br>
  
[[Datei:P ID1840 Dig T 5 3 S4a version1.png|Kanalmodelle nach Gilbert–Elliott (oben) und McCullough (unten)|class=fit]]<br>
+
[[Datei:P ID1840 Dig T 5 3 S4a version1.png|center|frame|Kanalmodelle nach Gilbert–Elliott (oben) und McCullough (unten)|class=fit]]
  
 
Zwischen den beiden Modellen bestehen viele Gemeinsamkeiten und einige wenige Unterschiede:
 
Zwischen den beiden Modellen bestehen viele Gemeinsamkeiten und einige wenige Unterschiede:
*Das McCullough&ndash;Kanalmodell beruht wie das Gilbert&ndash;Elliott&ndash;Modell auf einem Markovprozess erster Ordnung mit den beiden Zuständen &bdquo;G&rdquo; (GOOD) und &bdquo;B&rdquo; (BAD). Hinsichtlich der Modellstruktur ist kein Unterschied feststellbar.<br>
+
*Das McCullough&ndash;Kanalmodell beruht wie das Gilbert&ndash;Elliott&ndash;Modell auf einem ''Markovprozess erster Ordnung''&nbsp; mit den beiden Zuständen &bdquo;GOOD&rdquo;&nbsp; $(\rm G)$&nbsp; und &bdquo;BAD&rdquo;&nbsp; $(\rm B)$. Hinsichtlich der Modellstruktur ist kein Unterschied feststellbar.<br>
  
*Der wesentliche Unterschied zum GE&ndash;Modell besteht darin, dass ein Zustandswechsel zwischen &bdquo;G&rdquo;  und &bdquo;B&rdquo; jeweils nur nach einem Fehler &ndash; also einer &bdquo;1&rdquo; in der Fehlerfolge &ndash; möglich ist. Dies ermöglicht eine  Fehlerabstandssimulation.<br>
+
*Der wesentliche Unterschied zum GE&ndash;Modell besteht darin, dass ein Zustandswechsel zwischen &bdquo;GOOD&rdquo;  und &bdquo;BAD&rdquo; jeweils nur nach einem Fehler &ndash; also einer &bdquo;$1$&rdquo; in der Fehlerfolge &ndash; möglich ist. Dies ermöglicht eine  Fehlerabstandssimulation.<br>
  
*Die vier frei wählbaren GE&ndash;Parameter <i>p</i><sub>G</sub>, <i>p</i><sub>B</sub>, <i>p</i>(B|G) und <i>p</i>(G|B) können &ndash; wie auf der nächsten Seite gezeigt &ndash; so in die MC&ndash;Parameter <i>q</i><sub>G</sub>, <i>q</i><sub>B</sub>, <i>q</i>(B|G) und <i>q</i>(G|B) umgerechnet werden, dass eine in ihren statistischen Eigenschaften gleiche Fehlerfolge wie beim GE&ndash;Modell erzeugt wird.<br>
+
*Die vier frei wählbaren GE&ndash;Parameter&nbsp; $p_{\rm G}$,&nbsp; $p_{\rm B}$,&nbsp; ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$&nbsp; und&nbsp; ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$&nbsp; können &ndash; wie auf der nächsten Seite gezeigt &ndash; so in die MC&ndash;Parameter&nbsp; $q_{\rm G}$,&nbsp; $q_{\rm B}$,&nbsp; ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$&nbsp; und&nbsp; ${\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$&nbsp; umgerechnet werden, dass eine in ihren statistischen Eigenschaften gleiche Fehlerfolge wie beim GE&ndash;Modell erzeugt wird.<br>
  
*Beispielsweise bezeichnet <i>q</i>(B|G) die Übergangswahrscheinlichkeit von dem Zustand &bdquo;G&rdquo; in den Zustand &bdquo;B&rdquo; unter der Voraussetzung, dass im Zustand &bdquo;G&rdquo; gerade ein Fehler aufgetreten ist. Der GE&ndash;Parameter <i>p</i>(B|G) kennzeichnet diese Übergangswahrscheinlichkeit ohne Zusatzbedingung.<br>
+
*Beispielsweise bezeichnet&nbsp; ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$&nbsp; die Übergangswahrscheinlichkeit vom Zustand &bdquo;GOOD&rdquo; in den Zustand &bdquo;BAD&rdquo; unter der Voraussetzung, dass im Zustand &bdquo;GOOD&rdquo; gerade ein Fehler aufgetreten ist. Der GE&ndash;Parameter&nbsp; ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$&nbsp; kennzeichnet diese Übergangswahrscheinlichkeit ohne diese Zusatzbedingung.<br>
  
== Kanalmodell nach McCullough (2) ==
 
<br>
 
Die Abbildung zeigt oben eine beispielhafte Fehlerfolge des GE&ndash;Modells mit den Parametern <i>p</i><sub>G</sub> = 0.01, <i>p</i><sub>B</sub> = 0.4, <i>p</i>(G|B) = 0.1 und <i>p</i>(B|G) = 0.01. Man erkennt, dass ein Zustandswechsel von &bdquo;G&rdquo; (ohne Hinterlegung) nach &bdquo;B&rdquo; (graue Hinterlegung) und umgekehrt zu jedem Zeitpunkt <i>&nu;</i> möglich ist &ndash; also auch dann, wenn <i>e<sub>&nu;</sub></i> gleich 0 ist.<br>
 
  
[[Datei:P ID1841 Dig T 5 3 S4 version1.png|Fehlerfolge des GE–Modells (oben) und des MC–Modells (unten)|class=fit]]<br>
+
{{GraueBox|TEXT= 
 +
$\text{Beispiel 2:}$&nbsp; Die Abbildung zeigt oben eine beispielhafte Fehlerfolge des GE&ndash;Modells mit den Parametern&nbsp; $p_{\rm G} = 0.01$,&nbsp; $p_{\rm B} = 0.4$,&nbsp; ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01$,&nbsp; ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1$. Man erkennt, dass im Gegensatz zur unteren MC&ndash;Folge ein Zustandswechsel von &bdquo;GOOD&rdquo; (ohne Hinterlegung) nach &bdquo;BAD&rdquo; (graue Hinterlegung) und umgekehrt zu jedem Zeitpunkt&nbsp; $\nu$&nbsp; möglich ist &ndash; also auch dann, wenn&nbsp; $e_\nu = 0$&nbsp; ist.<br>
  
Die Zusammenhänge zwischen den beiden Modellen lassen sich wie folgt zusammenfassen:
+
[[Datei:P ID1841 Dig T 5 3 S4 version1.png|center|frame|Fehlerfolge des GE–Modells (oben) und des MC–Modells (unten)|class=fit]]}}
*Bei der unten dargestellten Fehlerfolge des McCullough&ndash;Modells ist im Gegensatz zur oberen Folge ein Zustandswechsel zum Zeitpunkt <i>&nu;</i> nur bei <i>e<sub>&nu;</sub></i> = 1  möglich.<br>
 
  
*Dies hat den Vorteil, dass man bei einer Fehlerfolgensimulation die Fehler nicht &bdquo;step&ndash;by&ndash;step&rdquo; generieren muss, sondern die schnellere Fehlerabstandssimulation nutzen kann&nbsp;&#8658;&nbsp; Aufgabe A5.5.<br>
 
  
*Die Parameter des GE&ndash;Modells können derart in entsprechende MC&ndash;Parameter umgerechnet werden, dass beide Modellen äquivalent sind.<br>
+
{{BlaueBox|TEXT= 
 +
$\text{Fazit:}$&nbsp; Die Zusammenhänge zwischen den beiden Modellen lassen sich wie folgt zusammenfassen:
 +
*Bei der im Beispiel unten dargestellten Fehlerfolge des McCullough&ndash;Modells ist im Gegensatz zur oberen Folge ein Zustandswechsel zum Zeitpunkt&nbsp; $\nu$&nbsp; nur bei&nbsp; $e_\nu = 1$&nbsp;  möglich. Der letzte Fehlerwert vor einer grauen Hinterlegung ist stets eine &bdquo;$1$&rdquo;.<br>
  
*Das bedeutet, dass die MC&ndash;Fehlerfolge exakt gleiche statistische Eigenschaften besitzt wie die GE&ndash;Fehlerfolge. Es bedeutet aber nicht, dass die beiden Fehlerfolgen identisch sind.<br><br>
+
*Dies hat den Vorteil, dass man bei einer Fehlerfolgensimulation die Fehler nicht &bdquo;step&ndash;by&ndash;step&rdquo; generieren muss, sondern die schnellere Fehlerabstandssimulation nutzen kann &nbsp; &#8658; &nbsp; siehe&nbsp; [[Aufgaben:Aufgabe_5.5:_Fehlerfolge_und_Fehlerabstandsfolge|Aufgabe 5.5]].<br>
  
Die Umrechnung der GE&ndash; in die MC&ndash;Parameter wird auf der nächsten Seite beschrieben und in der Aufgabe A5.7 an einem einfachen Beispiel verdeutlicht. In der Aufgabe Z5.7 wird weiter gezeigt, wie die mittlere Fehlerwahrscheinlichkeit, die Fehlerabstandsverteilung, die Fehlerkorrelationsfunktion und die Korrelationsdauer des MC&ndash;Modells direkt aus den <i>q</i>&ndash;Parametern ermittelt werden können.<br>
+
*Die Parameter des GE&ndash;Modells kann man derart in entsprechende MC&ndash;Parameter umrechnen, dass die beiden Modelle äquivalent sind &nbsp; &#8658; &nbsp; siehe nächste Seite. Das bedeutet: &nbsp; Die MC&ndash;Fehlerfolge hat ''exakt gleiche statistische Eigenschaften''&nbsp; wie die GE&ndash;Fehlerfolge. Es bedeutet aber '''nicht''', dass beide Fehlerfolgen identisch sind.}}<br><br>
  
== Kanalmodell nach McCullough (3) ==
+
== Umrechnung der GE&ndash;Parameter in die MC&ndash;Parameter ==
 
<br>
 
<br>
 
Die Parameter des äquivalenten  MC&ndash;Modells sind aus den GE&ndash;Parametern wie folgt berechenbar:
 
Die Parameter des äquivalenten  MC&ndash;Modells sind aus den GE&ndash;Parametern wie folgt berechenbar:
  
:<math>q_{\rm G} =1-\beta_{\rm
+
::<math>q_{\rm G} =1-\beta_{\rm
G}\hspace{0.05cm}, \hspace{0.2cm}q_{\rm
+
G}\hspace{0.05cm}, \hspace{0.9cm}q_{\rm
B} = 1-\beta_{\rm B}\hspace{0.05cm}.</math>
+
B} = 1-\beta_{\rm B}\hspace{0.05cm}, \hspace{0.9cm}q(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) =\frac{\alpha_{\rm B} \cdot[{\rm Pr}(\rm
 
 
:<math>q(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) =\frac{\alpha_{\rm B} \cdot[{\rm Pr}(\rm
 
 
B\hspace{0.05cm}|\hspace{0.05cm} G ) + {\rm Pr}(\rm
 
B\hspace{0.05cm}|\hspace{0.05cm} G ) + {\rm Pr}(\rm
 
G\hspace{0.05cm}|\hspace{0.05cm} B )]}{\alpha_{\rm G} \cdot q_{\rm
 
G\hspace{0.05cm}|\hspace{0.05cm} B )]}{\alpha_{\rm G} \cdot q_{\rm
B} + \alpha_{\rm B} \cdot q_{\rm G}} \hspace{0.05cm},  \hspace{0.5cm}
+
B} + \alpha_{\rm B} \cdot q_{\rm G}} \hspace{0.05cm},  \hspace{0.9cm}
 
q(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) =
 
q(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) =
 
\frac{\alpha_{\rm G}}{\alpha_{\rm B}} \cdot q(\rm
 
\frac{\alpha_{\rm G}}{\alpha_{\rm B}} \cdot q(\rm
Zeile 226: Zeile 237:
 
Hierbei sind wieder die folgenden Hilfsgrößen verwendet:
 
Hierbei sind wieder die folgenden Hilfsgrößen verwendet:
  
:<math>u_{\rm GG} \hspace{-0.1cm}  = \hspace{-0.1cm}{\rm Pr}(\rm
+
::<math>u_{\rm GG} = {\rm Pr}(\rm
 
G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G})
 
G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G})
 
\hspace{0.05cm},\hspace{0.2cm}
 
\hspace{0.05cm},\hspace{0.2cm}
Zeile 232: Zeile 243:
 
B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G})
 
B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G})
 
\hspace{0.05cm},</math>
 
\hspace{0.05cm},</math>
:<math>u_{\rm BB} \hspace{-0.1cm}  = \hspace{-0.1cm} {\rm Pr}(\rm
+
::<math>u_{\rm BB} = {\rm Pr}(\rm
 
B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})
 
B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})
 
\hspace{0.05cm},\hspace{0.29cm}
 
\hspace{0.05cm},\hspace{0.29cm}
 
  {\it u}_{\rm BG} ={\rm Pr}(\rm
 
  {\it u}_{\rm BG} ={\rm Pr}(\rm
 
G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm
 
G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm
B})\hspace{0.05cm}</math>
+
B})</math>
 
+
::<math>\Rightarrow \hspace{0.3cm} \beta_{\rm G} = \frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} -
:<math>\Rightarrow \hspace{0.3cm} \beta_{\rm G} \hspace{-0.1cm}  =  
 
\hspace{-0.1cm}\frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} -
 
 
u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}
 
u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}
\hspace{0.05cm},</math>
+
\hspace{0.05cm},
:<math>\hspace{0.7cm}\beta_{\rm B} \hspace{-0.1cm}  =  \hspace{-0.1cm}\frac{u_{\rm
+
\hspace{0.9cm}\beta_{\rm B} \hspace{-0.1cm}  =  \hspace{-0.1cm}\frac{u_{\rm
 
GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot
 
GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot
 
u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.</math>
 
u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.</math>
  
:<math>x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}}
+
::<math>x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}}
 
\hspace{0.05cm},\hspace{0.2cm}
 
\hspace{0.05cm},\hspace{0.2cm}
  x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}</math>
+
  x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}
 
+
\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot
:<math>\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot
 
 
p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm
 
p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm
 
B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm},
 
B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm},
\hspace{0.2cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.</math>
+
\hspace{0.9cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.</math>
 +
 
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 3:}$&nbsp; Wie im&nbsp; [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|$\text{Beispiel 2}$]]&nbsp; gelte für die GE&ndash;Parameter:
 +
:$$p_{\rm G} = 0.01, \hspace{0.5cm} p_{\rm B} = 0.4, \hspace{0.5cm} p(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01, \hspace{0.5cm} {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1.$$
 +
Bei Anwendung obiger Gleichungen erhält man dann für die äquivalenten MC&ndash;Parameter:
 +
:$$q_{\rm G} = 0.0186, \hspace{0.5cm} q_{\rm B} = 0.4613, \hspace{0.5cm} q(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.3602, \hspace{0.5cm} {\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.2240.$$
  
[[Datei:P ID1841 Dig T 5 3 S4 version1 (1).png|Fehlerfolge des GE–Modells (oben) und des MC–Modells (unten)|class=fit]]<br>
+
*Vergleicht man im $\text{Beispiel 2}$ die rote Fehlerfolge (GE, Zustandswechsel ist immer möglich) mit der blauen Folge (äquivalentes MC, Zustandswechsel nur bei&nbsp; $e_\nu = 1$), so erkennt man durchaus  gravierende Unterschiede.
 +
* Aber die blaue Fehlerfolge des äquivalenten McCullough-Modells besitzt exakt gleiche statistische Eigenschaften wie die rote Fehlerfolge des Gilbert–Elliott–Modells.}}
  
*GE&ndash;Parameter: &nbsp;<sub>&nbsp;&nbsp;</sub> <i>p</i><sub>G</sub> = 0.01, <i>p</i><sub>B</sub> = 0.4, <i>p</i>(G|B) = 0.1 und <i>p</i>(B|G) = 0.01.<br>
 
  
*MC&ndash;Parameter: &nbsp; <i>q</i><sub>G</sub> = 0.0186, <i>q</i><sub>B</sub> = 0.4613, <i>q</i>(G|B) = 0.2240 und <i>q</i>(B|G) = 0.3602.<br>
+
Die Umrechnung der GE&ndash; in die MC&ndash;Parameter wird in der&nbsp; [[Aufgaben:Aufgabe_5.7:_McCullough-Parameter_aus_Gilbert-Elliott-Parameter|Aufgabe 5.7]]&nbsp; an einem einfachen Beispiel verdeutlicht. In der&nbsp; [[Aufgaben:Aufgabe_5.7Z:_Nochmals_McCullough-Modell|Aufgabe 5.7Z]]&nbsp; wird weiter gezeigt, wie die mittlere Fehlerwahrscheinlichkeit, die Fehlerabstandsverteilung, die Fehlerkorrelationsfunktion und die Korrelationsdauer des MC&ndash;Modells direkt aus den &nbsp;$q$&ndash;Parametern ermittelt werden können.<br>
  
 
== Bündelfehlerkanalmodell nach Wilhelm ==
 
== Bündelfehlerkanalmodell nach Wilhelm ==
 
<br>
 
<br>
Dieses Modell geht auf Claus Wilhelm zurück und wurde ab Mitte der 1960er Jahre aus empirischen Messungen zeitlicher Folgen von Bitfehlern entwickelt. Es beruht auf Tausenden von Messstunden in Übertragungskanälen ab 200 bit/s mit analogem Modem bis hin zu 2.048 Mbit/s über [http://www.lntwww.de/Beispiele_von_Nachrichtensystemen ISDN]. Ebenso wurden Seefunkkanäle bis zu 7500 Kilometern im Kurzwellenbereich vermessen.<br>
+
Dieses Modell geht auf&nbsp; [[Biografien_und_Bibliografien/Externe_Beteiligte_am_LNTwww#Dr._sc._techn._Claus_Wilhelm|Claus Wilhelm]]&nbsp; zurück und wurde ab Mitte der 1960er Jahre aus empirischen Messungen zeitlicher Folgen von Bitfehlern entwickelt. Es beruht auf Tausenden von Messstunden in Übertragungskanälen ab &nbsp;$\text{200 bit/s}$&nbsp; mit analogem Modem bis hin zu &nbsp;$\text{2.048 Mbit/s}$&nbsp; über&nbsp; [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_ISDN|ISDN]]. Ebenso wurden Seefunkkanäle bis zu &nbsp;$7500$&nbsp; Kilometern im Kurzwellenbereich vermessen.<br>
  
Aufgezeichnet wurden Blöcke der Länge <i>n</i>. Daraus wurde die jeweilige Blockfehlerrate <i>h</i><sub>B</sub>(<i>n</i>) ermittelt. Ein Blockfehler liegt bereits dann vor, wenn auch nur eines der <i>n</i> Symbole verfälscht wurde. Wohl wissend, dass die Blockfehlerrate <i>h</i><sub>B</sub> nur für <i>n</i> &#8594; &#8734; exakt mit der Blockfehlerwahrscheinlichkeit <i>p</i><sub>B</sub> übereinstimmt, setzen wir bei der folgenden Beschreibung <i>p</i><sub>B</sub>(<i>n</i>) &asymp; <i>h</i><sub>B</sub>(<i>n</i>).<br>
+
[[Datei:P ID2778 Dig T 5 3 S5.png|right|frame|Beispielhafte Funktionsverläufe &nbsp;$p_{\rm B}(n)$]]
 +
Aufgezeichnet wurden Blöcke der Länge&nbsp; $n$. Daraus wurde die jeweilige Blockfehlerrate&nbsp; $h_{\rm B}(n)$&nbsp; ermittelt.
 +
* Ein Blockfehler liegt bereits dann vor, wenn auch nur eines der&nbsp; $n$&nbsp; Symbole verfälscht wurde.  
 +
*Wohl wissend, dass die Blockfehlerrate&nbsp; $h_{\rm B}(n)$&nbsp; nur für&nbsp; $n \to \infty$&nbsp; exakt mit der Blockfehlerwahrscheinlichkeit&nbsp; $p_{\rm B}$&nbsp; übereinstimmt, setzen wir bei der folgenden Beschreibung&nbsp; $p_{\rm B}(n) \approx h_{\rm B}(n)$.<br>
  
[[Datei:P ID2778 Dig T 5 3 S5.png|rahmenlos|rechts|Beispielhafte Funktionsverläufe <i>p</i><sub>B</sub>(<i>n</i>)]]
 
  
Bei einer Vielzahl von Messungen wurde immer wieder die Tatsache bestätigt, dass der Verlauf <i>p</i><sub>B</sub>(<i>n</i>) in doppelt&ndash;logarithmischer Darstellung im unteren Bereich lineare Anstiege aufweisen (siehe Grafik). Es gilt also für <i>n</i> &#8804; <i>n</i><sup>&#8727;</sup>:
+
Bei einer Vielzahl von Messungen wurde immer wieder die Tatsache bestätigt, dass der Verlauf&nbsp; $p_{\rm B}(n)$&nbsp; in doppelt&ndash;logarithmischer Darstellung im unteren Bereich lineare Anstiege aufweisen (siehe Grafik). Es gilt also für&nbsp; $n \le n^\star$:
  
:<math>{\rm lg} \hspace{0.1cm}p_{\rm B}(n) = {\rm lg} \hspace{0.1cm}p_{\rm S} + \alpha \cdot {\rm lg} \hspace{0.1cm}n</math>
+
::<math>{\rm lg} \hspace{0.15cm}p_{\rm B}(n) = {\rm lg} \hspace{0.15cm}p_{\rm S} + \alpha \cdot {\rm lg} \hspace{0.15cm}n\hspace{0.3cm}
 +
\Rightarrow \hspace{0.3cm}  p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}\hspace{0.05cm}.</math>
  
:<math>\Rightarrow \hspace{0.3cm}  p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}\hspace{0.05cm}.</math>
+
Hierbei bezeichnet&nbsp; $p_{\rm S} = p_{\rm B}(n=1)$&nbsp; die mittlere Symbolfehlerwahrscheinlichkeit und die empirisch gefundenen Werte von&nbsp; $\alpha$&nbsp; liegen zwischen&nbsp; $0.5$&nbsp; und&nbsp; $0.95$. Für&nbsp; $1-\alpha$&nbsp; wird auch die Bezeichnung <i>Bündelungsfaktor</i>&nbsp; verwendet.
  
Hierbei bezeichnet <i>p</i><sub>S</sub> = <i>p</i><sub>B</sub>(<i>n</i> = 1) die mittlere Symbolfehlerwahrscheinlichkeit und die empirisch gefundenen Werte von <i>&alpha;</i> liegen zwischen 0.5 und 0.95. Für 1 &ndash; <i>&alpha;</i> wird auch die Bezeichnung <i>Bündelungsfaktor</i> verwendet.<br>
+
Beachten Sie bitte, dass&nbsp; $p_{\rm B}(n)$&nbsp; die Blockfehlerwahrscheinlichkeit angibt. In anderem Zusammenhang bezeichnet in unserem Lerntutorial&nbsp; $p_{\rm B}$&nbsp; manchmal auch die Bitfehlerwahrscheinlichkeit.
 +
<br clear = all>
  
{{Beispiel}}''':''' Für das BSC&ndash;Modell gilt für den Verlauf der Blockfehlerwahrscheinlichkeit:
+
{{GraueBox|TEXT= 
 +
$\text{Beispiel 4:}$&nbsp; Beim BSC&ndash;Modell gilt für den Verlauf der Blockfehlerwahrscheinlichkeit:
  
:<math>p_{\rm B}(n) =1 -(1 -p_{\rm S})^n \approx n \cdot p_{\rm S}\hspace{0.05cm}.</math>
+
::<math>p_{\rm B}(n) =1 -(1 -p_{\rm S})^n \approx n \cdot p_{\rm S}\hspace{0.05cm}.</math>
  
Daraus folgt <i>&alpha;</i> = 1 bzw. der Bündelungsfaktor 1 &ndash; <i>&alpha;</i> = 0. In diesem Fall (und nur in diesem) ergibt sich auch bei nicht&ndash;logarithmischer Darstellung ein linearer Verlauf.<br>
+
Daraus folgt&nbsp; $\alpha = 1$&nbsp; bzw. der Bündelungsfaktor&nbsp; $1-\alpha = 0$. In diesem Fall (und nur in diesem) ergibt sich auch bei nicht&ndash;logarithmischer Darstellung ein linearer Verlauf.<br>
  
Es ist aber zu beachten, dass obige Näherung nur für <i>p</i><sub>S</sub> << 1 und nicht allzu großes <i>n</i> zulässig ist, da sonst die Näherung (1 &ndash; <i>p</i><sub>S</sub>)<sup><i>n</i></sup> &asymp; 1 &ndash; <i>n</i> &middot; <i>p</i><sub>S</sub> nicht anwendbar ist. Das heißt aber auch, dass die oben angegebene Gleichung auch nur für einen unteren Bereich (für <i>n</i> < <i>n</i><sup>&#8727;</sup> ) gilt. Ansonsten würde sich für <i>n</i> &#8594; &#8734; eine unendlich große Blockfehlerwahrscheinlichkeit ergeben.{{end}}<br>
+
*Zu beachten ist, dass obige Näherung nur für&nbsp; $p_{\rm S}  \ll 1$&nbsp; und nicht allzu großes&nbsp; $n$&nbsp; zulässig ist, da sonst die Näherung&nbsp; $(1-p_{\rm S})^n \approx1 - n \cdot p_{\rm S}$&nbsp; nicht anwendbar ist.  
 +
*Das heißt aber auch, dass die oben angegebene Gleichung auch nur für einen unteren Bereich $($für&nbsp; $n < n^\star)$&nbsp; gilt.  
 +
*Ansonsten würde sich für&nbsp; $n \to \infty$&nbsp; eine unendlich große Blockfehlerwahrscheinlichkeit ergeben.}}<br>
  
Für die aus Messungen empirisch bestimmte Funktion <i>p</i><sub>B</sub>(<i>n</i>) muss nun die [http://www.lntwww.de/Digitalsignal%C3%BCbertragung/Beschreibungsgr%C3%B6%C3%9Fen_digitaler_Kanalmodelle#Fehlerabstand_und_Fehlerabstandsverteilung_.282.29 Fehlerabstandsverteilung] gefunden werden, aus der der Verlauf für <i>n</i> > <i>n</i><sup>&#8727;</sup> extrapoliert werden kann und der die Nebenbedingung
+
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; Für die aus Messungen empirisch bestimmte Funktion&nbsp; $p_{\rm B}(n)$&nbsp; muss nun die [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerabstandsverteilung|'''Fehlerabstandsverteilung''']] gefunden werden, aus der der Verlauf für&nbsp; $n > n^\star$&nbsp; extrapoliert werden kann, der die folgende Nebenbedingung erfüllt:
  
:<math>\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_{\rm B}(n) = 1 </math>
+
::<math>\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_{\rm B}(n) = 1 .</math>
  
erfüllt. Wir bezeichnen diesen Ansatz als das <i>Wilhelm&ndash;Modell</i>. Da das Gedächtnis nur bis zum letzten Symbolfehler reicht, wird dieses ein Erneuerungsmodell (englisch: <i>Renewal Model</i>) sein.<br>
+
Wir bezeichnen diesen Ansatz als   '''Wilhelm&ndash;Modell'''. Da das Gedächtnis nur bis zum letzten Symbolfehler reicht, ist dieses Modell erneuernd (englisch: <i>Renewal Model</i>).}}<br>
  
== Fehlerabstandsbetrachtung zum Wilhelm–Modell (1) ==
+
== Fehlerabstandsbetrachtung zum Wilhelm–Modell ==
 
<br>
 
<br>
Betrachten wir nun die <i>Fehlerabstände</i>. Eine Fehlerfolge &#9001;<i>e<sub>&nu;</sub></i>&#9002; kann in äquivalenter Weise durch die Fehlerabstandsfolge &#9001;<i>a<sub>&nu;'</sub></i>&#9002; dargestellt werden, wie in der folgenden Grafik gezeigt. Man erkennt:
 
*Die Fehlerfolge ...1001... wird durch den Fehlerabstand <i>a</i> = 3 ausgedrückt.<br>
 
*Entsprechend bezeichnet der Fehlerabstand <i>a</i> = 1  die Fehlerfolge ...11... .<br>
 
*Die verschiedenen Indizes <i>&nu;</i> und <i>&nu;'</i> berücksichtigen, dass die beiden Folgen nicht synchron laufen.
 
  
:[[Datei:P ID2807 Dig T 5 3 S5b.png|Fehlerfolge und Fehlerabstandsfolge|class=fit]]<br>
+
Wir betrachten nun die&nbsp;  <i>Fehlerabstände</i>. Eine Fehlerfolge&nbsp; $\langle e_\nu \rangle$&nbsp; kann in äquivalenter Weise durch die Fehlerabstandsfolge&nbsp; $\langle a_{\nu\hspace{0.06cm}'} \rangle$&nbsp; dargestellt werden, wie in der folgenden Grafik gezeigt. Man erkennt:
 +
[[Datei:P ID2807 Dig T 5 3 S5b.png|right|frame|Fehlerfolge und Fehlerabstandsfolge|class=fit]]
 +
*Die Fehlerfolge&nbsp; $\text{...}\rm 1001\text{...}$&nbsp; wird durch&nbsp; $a= 3$&nbsp; ausgedrückt.<br>
 +
*Entsprechend bezeichnet der Fehlerabstand&nbsp; $a= 1$&nbsp;  die Fehlerfolge&nbsp; $\text{...}\rm 11\text{...}$.<br>
 +
*Die verschiedenen Indizes&nbsp; $\nu$&nbsp; und&nbsp; $\nu\hspace{0.06cm}'$&nbsp; berücksichtigen, dass die beiden Folgen nicht synchron laufen.
  
Mit den Wahrscheinlichkeiten <i>p<sub>a</sub></i>(<i>k</i>) = Pr(<i>a</i> = <i>k</i>) für die einzelnen Fehlerabstände <i>k</i> und der mittleren (Bit&ndash;)Fehlerwahrscheinlichkeit <i>p</i><sub>S</sub> gelten  folgende Definitionen für
 
* die Fehlerabstandsverteilung (FAV): &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; den mittleren Fehlerabstand E[<i>a</i>]:
 
  
::<math> V_a(k) =  {\rm Pr}(a \ge k)= \sum_{\kappa = k}^{\infty}p_a(\kappa) \hspace{0.05cm},
+
Mit den Wahrscheinlichkeiten&nbsp; $p_a(k) = {\rm Pr}(a= k)$&nbsp; für die einzelnen Fehlerabstände&nbsp; $k$&nbsp; und der mittleren (Symbol&ndash;)Fehlerwahrscheinlichkeit&nbsp; $p_{\rm S}$&nbsp; gelten  folgende Definitionen für
\hspace{0.93cm}
+
* die Fehlerabstandsverteilung (FAV):
{\rm E}[a] = \sum_{k = 1}^{\infty} k \cdot p_a(k)  = {1}/{p_{\rm S}}\hspace{0.05cm}.</math>
+
::<math> V_a(k) =  {\rm Pr}(a \ge k)= \sum_{\kappa = k}^{\infty}p_a(\kappa) \hspace{0.05cm},</math>
 +
* den mittleren Fehlerabstand ${\rm E}\big[a\big]$:
 +
::<math> V_a(k) =  {\rm E}\big[a\big] = \sum_{k = 1}^{\infty} k \cdot p_a(k)  = {1}/{p_{\rm S}}\hspace{0.05cm}.</math>
  
Wir betrachten nun einen Block mit <i>n</i> Bit, beginnend bei der Bitposition <i>&nu;</i> + 1. Ein Blockfehler tritt immer dann auf, wenn ein Bit an den Positionen <i>&nu;</i> + 1, ... , <i>&nu;</i> + <i>n</i> verfälscht ist.<br>
+
{{GraueBox|TEXT= 
 +
$\text{Beispiel 5:}$&nbsp; Wir betrachten einen Block mit&nbsp; $n$&nbsp; Bit, beginnend bei der Bitposition&nbsp; $\nu + 1$.  
  
[[Datei:P ID2808 Dig T 5 3 S5c neu.png|Zur Herleitung des Wilhelm–Modells|class=fit]]<br>
+
[[Datei:P ID2808 Dig T 5 3 S5c neu.png|right|frame|Zur Herleitung des Wilhelm–Modells|class=fit]]
  
Die Verfälschungswahrscheinlichkeiten werden in der Grafik durch die Fehlerabstandsverteilung  <i>V<sub>a</sub>'</i>(<i>k</i>) ausgedrückt. Irgendwo vor dem Block der Länge <i>n</i> = 3
+
*Ein Blockfehler tritt immer dann auf, wenn ein Bit an den Positionen&nbsp; $\nu + 1$, ... , $\nu + n$&nbsp; verfälscht ist.<br>
befindet sich der letzte Fehler, aber mindestens im Abstand <i>k</i> vom ersten Fehler im Block entfernt. Also ist der Abstand gleich oder größer als <i>k</i>, was genau der Wahrscheinlichkeit <i>V<sub>a</sub>'</i>(<i>k</i>) entspricht.<br>
+
*Die Verfälschungswahrscheinlichkeiten werden in der Grafik durch die Fehlerabstandsverteilung&nbsp; ${V_a}\hspace{0.06cm}'(k)$&nbsp; ausgedrückt.  
 +
*Irgendwo vor dem Block der Länge&nbsp; $n = 3$&nbsp; befindet sich der letzte Fehler, aber mindestens im Abstand&nbsp; $k$&nbsp; vom ersten Fehler im Block entfernt.  
 +
*Also ist der Abstand gleich oder größer als&nbsp; $k$, was genau der Wahrscheinlichkeit&nbsp; ${V_a}'(k)$&nbsp; entspricht.  
 +
*Das Hochkomma soll anzeigen, dass später noch eine Korrektur vorzunehmen ist, um von der empirisch gefundenen FAV  zur richtigen Funktion&nbsp; ${V_a}(k)$&nbsp; zu kommen.}}
  
<i>Hinweis.</i> Das Hochkomma soll anzeigen, dass wir später noch eine Korrektur vornehmen müssen, um von der empirisch gefundenen FAV  zur richtigen Funktion <i>V<sub>a</sub></i>(<i>k</i>) zu kommen.<br>
 
  
Für die Blockfehlerwahrscheinlichkeit haben wir nun zwei Gleichungen: Durch Verallgemeinerung des obigen Bildes ergibt sich Gleichung (1). Die zweite Gleichung liefert unsere empirische Untersuchung:
+
Für die Blockfehlerwahrscheinlichkeit&nbsp; $p_{\rm B}(n)$&nbsp; haben wir nun verschiedene Gleichungen.
 
+
*Eine erste Gleichung stellt den Zusammenhang zwischen&nbsp;  $p_{\rm B}(n)$&nbsp; und der (approximativen)  Fehlerabstandsverteilung&nbsp; ${V_a}'(k)$&nbsp; her:
:<math>(1)\hspace{0.2cm} p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k)  \hspace{0.05cm},
+
::<math>(1)\hspace{0.4cm} p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k)  \hspace{0.05cm},
\hspace{0.4cm}(2)\hspace{0.2cm} p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}
+
</math>
\hspace{0.4cm}\Rightarrow\hspace{0.4cm}
+
*Eine zweite Gleichung liefert unsere empirische Untersuchung zu Beginn dieses Abschnitts:
 +
::<math>(2)\hspace{0.4cm} p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}</math>
 +
*Die dritte Gleichung ergibt sich aus Gleichsetzen von $(1)$ und $(2)$:
 +
::<math>(3)\hspace{0.4cm}
 
\sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k) = n^{\alpha} \hspace{0.05cm}. </math>
 
\sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k) = n^{\alpha} \hspace{0.05cm}. </math>
  
== Fehlerabstandsbetrachtung zum Wilhelm–Modell (2) ==
+
Durch sukzessives Einsetzen von&nbsp; $n = 1, 2, 3,$ ... in diese Gleichung erhalten wir mit&nbsp; ${V_a}'(k = 1) = 1$:
<br>
 
Wir betrachten weiterhin die Blockfehlerwahrscheinlichkeit <i>p</i><sub>B</sub>(<i>n</i>) für einen Block mit <i>n</i> Bit:
 
  
::<math>(1)\hspace{0.2cm} p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k)  \hspace{0.05cm},
+
::<math>V_a\hspace{0.05cm}'(1)   =   1^{\alpha}
\hspace{0.4cm}(2)\hspace{0.2cm} p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}
+
\hspace{0.05cm},\hspace{0.8cm}
\hspace{0.4cm}\Rightarrow\hspace{0.4cm}
+
V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2=2^{\alpha}
\sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k) = n^{\alpha} \hspace{0.05cm}. </math>
+
\hspace{0.05cm},
 +
\hspace{0.8cm}V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2) + V_a\hspace{0.05cm}'(3) = 3^{\alpha}
 +
\hspace{0.35cm}\Rightarrow \hspace{0.3cm} V_a\hspace{0.05cm}'(k) = k^{\alpha}-(k-1)^{\alpha} \hspace{0.05cm}.</math>
  
*Die Gleichung (1) wurde auf der letzten Seite hergeleitet. Sie stellt den Zusammenhang zwischen  Blockfehlerwahrscheinlichkeit <i>p</i><sub>B</sub>(<i>n</i>) und (approximativer)  Fehlerabstandsverteilung <i>V<sub>a</sub></i>&prime;(<i>k</i>) her.<br>
+
Die aus empirischen Daten gewonnenen Koeffizienten&nbsp; ${V_a}'(k)$&nbsp; erfüllen jedoch nicht notwendigerweise die Normierungsbedingung.  
  
*Die Gleichung (2) lieferte unsere empirische Untersuchung zu Beginn dieses Abschnitts.<br>
+
Um den Sachverhalt zu korrigieren, verwendet Wilhelm folgenden Ansatz:
  
*Die letzte Gleichung ergibt sich aus Gleichsetzen von (1) und (2).<br><br>
+
::<math>V_a\hspace{0.05cm}(k) = V_a\hspace{0.05cm}'(k) \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}
 +
V_a\hspace{0.05cm}(k) =  \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.05cm}.</math>
  
Durch sukzessives Einsetzen von <i>n</i> = 1, 2, 3, ... in diese Gleichung erhalten wir mit <i>V<sub>a</sub>'</i>(1) = 1:
+
Wilhelm bezeichnet diese Darstellung als&nbsp; '''L&ndash;Modell''', siehe&nbsp; [Wil11]<ref name='Wil11'>Wilhelm, C.:&nbsp; A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. Neue Kanalmodelle mit Formeln für die Wahrscheinlichkeit von Fehlerstrukturen.&nbsp; [http://www.channels-networks.net/ Internet-Veröffentlichungen zu Channels-Networks,] 2011ff.</ref>. Die Konstante&nbsp; $\beta$&nbsp; ist  in Abhängigkeit
 +
*der Symbolfehlerwahrscheinlichkeit&nbsp; $p_{\rm S}$, und<br>
 +
*des empirisch gefundenen Exponenten&nbsp; $\alpha$ &nbsp; &#8658; &nbsp; Bündelungsfaktor&nbsp; $1- \alpha$
  
:<math>V_a\hspace{0.05cm}'(1)  =  1^{\alpha}
 
\hspace{0.05cm},\hspace{1.1cm}
 
V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2)  =2^{\alpha}
 
\hspace{0.05cm},</math>
 
:<math>V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2) + V_a\hspace{0.05cm}'(3)  = 3^{\alpha}
 
\hspace{0.35cm}\Rightarrow \hspace{0.3cm} V_a\hspace{0.05cm}'(k) = k^{\alpha}-(k-1)^{\alpha} \hspace{0.05cm}.</math>
 
  
Die aus empirischen Daten gewonnenen Koeffizienten <i>V<sub>a</sub></i>&prime;(<i>k</i>) erfüllen jedoch nicht notwendigerweise die Normierungsbedingung. Um den Sachverhalt zu korrigieren, verwendet Wilhelm folgenden Ansatz:
+
so zu bestimmen, dass die Blockfehlerwahrscheinlichkeit  bei unendlich großer Blocklänge gleich&nbsp; $1$&nbsp; wird:
  
:<math>V_a\hspace{0.05cm}(k) = V_a\hspace{0.05cm}'(k) \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}
+
::<math>\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_B(n) =  p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k)
V_a\hspace{0.05cm}(k) =  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.05cm}.</math>
+
  =  p_{\rm S} \cdot \sum_{k = 1}^{n}  \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)}
 
 
Wilhelm bezeichnet diese Darstellung als <i>L</i>&ndash;Modell, siehe [Wil11]<ref>Wilhelm, C.: ''A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. Neue Kanalmodelle mit Formeln für die Wahrscheinlichkeit von Fehlerstrukturen''. [http://www.channels-networks.net/ Internet-Veröffentlichungen zu Channels-Networks,] 2011ff.</ref>. Die Konstante <i>&beta;</i> ist  in Abhängigkeit
 
*der Symbolfehlerwahrscheinlichkeit <i>p</i><sub>S</sub>, und<br>
 
*des empirisch gefundenen Exponenten <i>&alpha;</i> &nbsp;&nbsp;&#8658;&nbsp;&nbsp; Bündelungsfaktor 1 &ndash; <i>&alpha;</i><br><br>
 
 
 
so zu bestimmen, dass die Blockfehlerwahrscheinlichkeit  bei unendlich großer Blocklänge gleich 1 wird:
 
 
 
:<math>\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_B(n) =  p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k)
 
  =  p_{\rm S} \cdot \sum_{k = 1}^{n}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}
 
 
=1  
 
=1  
\hspace{0.05cm}</math>
+
\hspace{0.3cm} \Rightarrow \hspace{0.3cm} \sum_{k = 1}^{\infty}  \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)}
 
 
:<math>\Rightarrow \hspace{0.3cm} \sum_{k = 1}^{\infty}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}
 
 
= {1}/{p_{\rm S}}  
 
= {1}/{p_{\rm S}}  
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
Um <i>&beta;</i> zu bestimmen, wird die erzeugende Funktion von  <i>V<sub>a</sub></i>(<i>k</i>) verwendet, die wir mit <i>V<sub>a</sub></i>(<i>z</i>) benennen:
+
Um&nbsp; $\beta$&nbsp; zu bestimmen, wird die&nbsp; [https://de.wikipedia.org/wiki/Erzeugende_Funktion erzeugende Funktion]&nbsp; von&nbsp; ${V_a}(k)$&nbsp; verwendet, die wir mit&nbsp; ${V_a}(z)$&nbsp; benennen:
  
:<math>V_a\hspace{0.05cm}(z) =  \sum_{k = 1}^{\infty}V_a\hspace{0.05cm}(k)  \cdot z^k =  
+
::<math>V_a\hspace{0.05cm}(z) =  \sum_{k = 1}^{\infty}V_a\hspace{0.05cm}(k)  \cdot z^k =  
   \sum_{k = 1}^{n}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}
+
   \sum_{k = 1}^{n}  \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)}
 
\cdot z^k  
 
\cdot z^k  
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
In [Wil11]<ref>Wilhelm, C.: ''A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. Neue Kanalmodelle mit Formeln für die Wahrscheinlichkeit von Fehlerstrukturen.'' [http://www.channels-networks.net/ Internet-Veröffentlichungen zu Channels-Networks], 2011ff.</ref> wird näherungsweise hergeleitet:
+
In&nbsp; [Wil11]<ref name='Wil11'>Wilhelm, C.:&nbsp; A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. Neue Kanalmodelle mit Formeln für die Wahrscheinlichkeit von Fehlerstrukturen.&nbsp; [http://www.channels-networks.net/ Internet-Veröffentlichungen zu Channels-Networks,] 2011ff.</ref> wird näherungsweise&nbsp; $V_a\hspace{0.05cm}(z) = 1/{\left (1- {\rm e}^{- \beta }\cdot z \right )^\alpha}
 
+
$&nbsp; hergeleitet. Aus der Gleichung für den mittleren Fehlerabstand folgt:
:<math>V_a\hspace{0.05cm}(z) = \frac{1}{\left (1- {\rm e}^{- \beta }\cdot z \right )^\alpha}
 
\hspace{0.05cm}.</math>
 
 
 
Aus der Gleichung für den mittleren Fehlerabstand folgt:
 
  
:<math> {\rm E}[a] = \sum_{k = 1}^{\infty} k \cdot p_a(k)   
+
::<math> {\rm E}\big[a\big] = \sum_{k = 1}^{\infty} k \cdot p_a(k)  = \sum_{k = 1}^{\infty} V_a(k)  = \sum_{k = 1}^{\infty} V_a(k) \cdot 1^k =  V_a(z=1) =
= \sum_{k = 1}^{\infty} V_a(k)  = \sum_{k = 1}^{\infty} V_a(k) \cdot 1^k =  V_a(z=1) =
+
  1/p_{\rm S}</math>
  {1}/{p_{\rm S}}\hspace{0.05cm}</math>
+
::<math> \Rightarrow \hspace{0.3cm}{p_{\rm S}} = \big [V_a(z=1)\big]^{-1}=
 
+
  \big [1- {\rm e}^{- \beta }\cdot 1\big]^{\alpha}\hspace{0.3cm}
:<math>\Rightarrow \hspace{0.3cm}{p_{\rm S}} = \left [V_a(z=1)\right]^{-1}=
+
\Rightarrow \hspace{0.3cm}
  \left [1- {\rm e}^{- \beta }\cdot 1\right]^{\alpha}
 
\hspace{0.3cm}\Rightarrow \hspace{0.3cm}
 
 
{\rm e}^{- \beta } =1 - {p_{\rm S}}^{1/\alpha}\hspace{0.05cm}.</math>
 
{\rm e}^{- \beta } =1 - {p_{\rm S}}^{1/\alpha}\hspace{0.05cm}.</math>
  
== Numerischer Vergleich von BSC–Modell und Wilhelm–Modell (1) ==
+
== Numerischer Vergleich von BSC–Modell und Wilhelm–Modell==
 
<br>
 
<br>
Fassen wir dieses Zwischenergebnis zusammen, das von Wilhelm als <i>L&ndash;Modell</i> bezeichnet wird.<br>
+
{{BlaueBox|TEXT= 
 +
$\text{Fazit:}$&nbsp; Fassen wir dieses Zwischenergebnis zusammen. Das&nbsp; '''L&ndash;Modell'''&nbsp; nach Wilhelm beschreibt die Fehlerabstandsverteilung in der Form
  
Das L&ndash;Modell nach Wilhelm beschreibt die Fehlerabstandsverteilung in der Form
+
::<math>V_a\hspace{0.05cm}(k) = \big  [k^{\alpha}-(k-1)^{\alpha}\big ] \cdot
 +
\big [ 1 - {p_{\rm S}^{1/\alpha} }\big ]^{k-1}
 +
\hspace{0.05cm}.</math>}}
  
:<math>V_a\hspace{0.05cm}(k) = \left  [k^{\alpha}-(k-1)^{\alpha}\right ] \cdot
 
\left [ 1 - {p_{\rm S}^{1/\alpha}}\right ]^{k-1}
 
\hspace{0.05cm}.</math>
 
  
 
Dieses Modell soll nun anhand beispielhafter numerischer Ergebnisse erläutert werden.<br>
 
Dieses Modell soll nun anhand beispielhafter numerischer Ergebnisse erläutert werden.<br>
  
{{Beispiel}}'''1 :''' Wir gehen zunächst vom [http://www.lntwww.de/Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerkorrelationsfunktion_des_BSC.E2.80.93Modells BSC&ndash;Modell] aus. Die Verfälschungswahrscheinlichkeit setzen wir aus Darstellungsgründen sehr hoch auf <i>p</i><sub>S</sub> = 0.2. In der zweiten Zeile der nachfolgenden Tabelle ist dessen Fehlerabstandsverteilung <i>V</i><sub>a</sub>(<i>k</i>) = Pr(<i>a</i> &#8805; <i>k</i>) für <i>k</i> &#8804; 10 eingetragen.<br>
+
{{GraueBox|TEXT= 
 +
$\text{Beispiel 6:}$&nbsp; Wir gehen zunächst vom&nbsp; [[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerkorrelationsfunktion_des_BSC.E2.80.93Modells|BSC&ndash;Modell]]&nbsp; aus.  
 +
*Die Verfälschungswahrscheinlichkeit setzen wir aus Darstellungsgründen sehr hoch auf&nbsp; $p_{\rm S} = 0.2$.  
 +
*In der zweiten Zeile der nachfolgenden Tabelle ist dessen Fehlerabstandsverteilung&nbsp; ${V_a}(k) = {\rm Pr}(a \ge k)$&nbsp; für&nbsp; $k \le10$ eingetragen.<br>
  
[[Datei:P ID2827 Dig T 5 3 S5d ganz neu.png|Kenngrößen des BSC–Modells  für <i>p</i><sub>S</sub> = 0.2|class=fit]]<br>
+
[[Datei:P ID2827 Dig T 5 3 S5d ganz neu.png|center|frame|Kenngrößen des BSC–Modells  für&nbsp; $p_{\rm S} = 0.2$|class=fit]]
  
Das Wilhelm&ndash;Modell mit <i>p</i><sub>S</sub> = 0.2 und <i>&alpha;</i> = 1 weist genau die gleiche Fehlerabstandsverteilung <i>V</i><sub>a</sub>(<i>k</i>) wie das entsprechende [http://www.lntwww.de/Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerabstandsverteilung_des_BSC.E2.80.93Modells BSC&ndash;Modell] auf. Dies zeigt auch die Rechnung. Mit <i>&alpha;</i> = 1 erhält man aus der Gleichung auf der letzten Seite:
+
Das Wilhelm&ndash;Modell mit&nbsp; $p_{\rm S} = 0.2$&nbsp; und&nbsp; $\alpha = 1$&nbsp; weist genau die gleiche Fehlerabstandsverteilung ${V_a}(k)$ wie das entsprechende&nbsp; [[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerabstandsverteilung_des_BSC.E2.80.93Modells| BSC&ndash;Modell]]&nbsp; auf. Dies zeigt auch die Rechnung. Mit&nbsp; $\alpha = 1$&nbsp; erhält man aus der Gleichung auf der letzten Seite:
  
:<math>V_a\hspace{0.05cm}(k) = \left [k^{\alpha}-(k-1)^{\alpha}\right ] \cdot  
+
::<math>V_a\hspace{0.05cm}(k) = \big [k^{\alpha}-(k-1)^{\alpha}\big ] \cdot  
\left [ 1 - {p_{\rm S}^{1/\alpha}}\right ]^{k-1}  =  (1 - p_{\rm S})^{k-1}
+
\big [ 1 - {p_{\rm S}^{1/\alpha} }\big ]^{k-1}  =  (1 - p_{\rm S} )^{k-1}
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
Damit besitzen beide Modelle entsprechend den Zeilen 3 und 4 auch
+
Damit besitzen beide Modelle entsprechend den Zeilen '''3''' und '''4''' auch
*gleiche Wahrscheinlichkeiten Pr(<i>a</i> = <i>k</i>) = <i>V</i><sub>a</sub>(<i>k</i>&ndash;1) &ndash; <i>V</i><sub>a</sub>(<i>k</i>) der Fehlerabstände,<br>
+
*gleiche Wahrscheinlichkeiten&nbsp; ${\rm Pr}(a = k)= {V_a}(k-1) -  {V_a}(k)$&nbsp; der Fehlerabstände,<br>
  
*gleiche Blockfehlerwahrscheinlichkeiten <i>p</i><sub>B</sub>(<i>n</i>).<br><br>
+
*gleiche Blockfehlerwahrscheinlichkeiten&nbsp; $ p_{\rm B}(n)$.<br><br>
  
Im Hinblick auf das folgende Beispiel mit  <i>&alpha;</i> &ne; 1 ist nochmals besonders zu erwähnen:
+
Im Hinblick auf das folgende&nbsp; $\text{Beispiel 7}$&nbsp; mit&nbsp; $\alpha \ne 1$&nbsp; ist nochmals besonders zu erwähnen:
*Die Blockfehlerwahrscheinlichkeiten  <i>p</i><sub>B</sub>(<i>n</i>) des Wilhelm&ndash;Modells ergeben sich grundsätzlich aus der Fehlerabstandsverteilung <i>V</i><sub>a</sub>(<i>k</i>) entsprechend der Gleichung
+
*Die Blockfehlerwahrscheinlichkeiten&nbsp; $ p_{\rm B}(n)$&nbsp; des Wilhelm&ndash;Modells ergeben sich grundsätzlich aus der Fehlerabstandsverteilung&nbsp; ${V_a}(k)$&nbsp; entsprechend der Gleichung
  
 
::<math> p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k)  
 
::<math> p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k)  
 
\hspace{0.15cm}\Rightarrow  \hspace{0.15cm} p_{\rm B}( 1) = 0.2 \cdot 1 = 0.2
 
\hspace{0.15cm}\Rightarrow  \hspace{0.15cm} p_{\rm B}( 1) = 0.2 \cdot 1 = 0.2
\hspace{0.05cm}, \hspace{0.15cm}p_{\rm B}(2) = 0.2 \cdot (1+0.8) = 0.36
+
\hspace{0.05cm}, \hspace{0.5cm}p_{\rm B}(2) = 0.2 \cdot (1+0.8) = 0.36
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
*Im Sonderfall <i>&alpha;</i> = 1 &nbsp;&#8658;&nbsp; BSC&ndash;Modell (und nur in diesem) kann <i>p</i><sub>B</sub>(<i>n</i>) auch durch Summation über die Fehlerabstandswahrscheinlichkeiten Pr(<i>a</i> = <i>k</i>) ermittelt werden:
+
*Nur im Sonderfall&nbsp; $\alpha = 1&nbsp; &#8658; &nbsp; BSC&ndash;Modell kann&nbsp; $ p_{\rm B}(n)$&nbsp; auch durch Summation über die Fehlerabstandswahrscheinlichkeiten&nbsp; ${\rm Pr}(a=k)$&nbsp; ermittelt werden:
  
 
::<math> p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} {\rm Pr}(a=k)
 
::<math> p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} {\rm Pr}(a=k)
 
\hspace{0.15cm}\Rightarrow  \hspace{0.15cm} p_{\rm B}( 1) = 0.2
 
\hspace{0.15cm}\Rightarrow  \hspace{0.15cm} p_{\rm B}( 1) = 0.2
\hspace{0.05cm}, \hspace{0.15cm}p_{\rm B}(2) = 0.2+ 0.16 = 0.36
+
\hspace{0.05cm}, \hspace{0.5cm}p_{\rm B}(2) = 0.2+ 0.16 = 0.36
\hspace{0.05cm}.</math>{{end}}<br>
+
\hspace{0.05cm}.</math>}}<br>
  
== Numerischer Vergleich von BSC–Modell und Wilhelm–Modell (2) ==
+
{{GraueBox|TEXT=
<br>
+
$\text{Beispiel 7:}$&nbsp;  Wir betrachten nun einen Kanal mit Bündelfehlercharakteristik.  
{{Beispiel}} '''2 :''' Betrachten wir nun einen Kanal mit Bündelfehlercharakteristik. Die Grafik zeigt als grüne Kreise die Ergebnisse für das Wilhelm&ndash;L&ndash;Modell mit <i>&alpha;</i> = 0.7. Die rote Vergleichskurve gilt für <i>&alpha;</i> = 1 (bzw. für den BSC&ndash;Kanal) bei gleicher mittlerer Symbolfehlerwahrscheinlichkeit  <i>p</i><sub>S</sub> = 0.2. Unten rechts sind einige interessante Zahlenwerte angegeben.<br>
+
*Die Grafik zeigt als grüne Kreise die Ergebnisse für das Wilhelm&ndash;L&ndash;Modell mit&nbsp; $\alpha = 0.7$.  
 +
*Die rote Vergleichskurve gilt für&nbsp; $\alpha = 1$&nbsp;  (bzw. für den BSC&ndash;Kanal) bei gleicher mittlerer Symbolfehlerwahrscheinlichkeit&nbsp; $p_{\rm S} = 0.2$.  
 +
*Unten rechts sind einige interessante Zahlenwerte angegeben.<br>
  
[[Datei:P ID2833 Dig T 5 3 S5h version2.png|Ergebnisse des  Wilhelm–L–Modells mit <i>α</i> = 0.7 und <i>p</i><sub>S</sub> = 0.2|class=fit]]<br>
+
[[Datei:P ID2833 Dig T 5 3 S5h version2.png|center|frame|Ergebnisse des  Wilhelm–L–Modells mit&nbsp; $\alpha = 0.7$ und&nbsp;  $p_{\rm S} = 0.2$|class=fit]]
  
 
Man erkennt aus diesen Darstellungen:
 
Man erkennt aus diesen Darstellungen:
*Der Verlauf der Blockfehlerfehlerwahrscheinlichkeit beginnt jeweils mit <i>p</i><sub>B</sub>(<i>n</i> = 1) = <i>p</i><sub>S</sub> = 0.2, sowohl bei statistisch unabhängigen Fehlern (BSC) als auch bei Bündelfehlern (Wilhelm).<br>
+
*Der Verlauf der Blockfehlerfehlerwahrscheinlichkeit beginnt jeweils mit&nbsp; $p_{\rm B}(n = 1) = p_{\rm S} = 0.2$, sowohl bei statistisch unabhängigen Fehlern (BSC) als auch bei Bündelfehlern (Wilhelm).<br>
  
*Beim Bündelfehlerkanal  ist Pr(<i>a</i> = 1) = 0.438 deutlich größer als beim vergleichbaren BSC &#8658; Pr(<i>a</i> = 1) = 0.2. Zudem erkennt man einen abgeknickten Verlauf im unteren Bereich.<br>
+
*Beim Bündelfehlerkanal  ist&nbsp; ${\rm Pr}(a=1)= 0.438$&nbsp; deutlich größer als beim vergleichbaren BSC &nbsp; &#8658; &nbsp; ${\rm Pr}(a=1)= 0.2$. Zudem erkennt man einen abgeknickten Verlauf im unteren Bereich.<br>
  
*Der mittlere Fehlerabstand E[<i>a</i>] = 1/<i>p</i><sub>S</sub> = 5 ist aber bei gleicher Symbolfehlerwahrscheinlichkeit ebenfalls identisch. Der große Ausreiser bei <i>k</i> = 1 wird durch kleinere Wahrscheinlichkeiten für <i>k</i> = 2, <i>k</i> = 3 und <i>k</i> = 4 ausgeglichen, sowie durch die Tatsache, dass für große <i>k</i> die grünen Kreise &ndash; wenn auch nur minimal &ndash; oberhalb der roten Vergleichskurve liegen.<br>
+
*Der mittlere Fehlerabstand&nbsp; ${\rm E}\big [a \big ] = 1/p_{\rm S} = 5$&nbsp; ist aber bei gleicher Symbolfehlerwahrscheinlichkeit ebenfalls identisch. Der große Ausreiser bei&nbsp; $k=1$&nbsp; wird durch kleinere Wahrscheinlichkeiten für&nbsp; $k=2$,&nbsp; $k=3$&nbsp; ... ausgeglichen, sowie durch die Tatsache, dass für große&nbsp; $k$&nbsp; die grünen Kreise &ndash; wenn auch nur minimal &ndash; oberhalb der roten Vergleichskurve liegen.<br>
  
*Das wichtigste Ergebnis ist aber, dass die Blockfehlerfehlerwahrscheinlichkeit für <i>n</i> > 1 beim Bündelfehlerkanal kleiner ist als beim vergleichbaren BSC&ndash;Modell, z.B.: &nbsp;<i>p</i><sub>B</sub>(<i>n</i> = 20) = 0.859.{{end}}<br>
+
*Das wichtigste Ergebnis ist aber, dass die Blockfehlerfehlerwahrscheinlichkeit für&nbsp; $n > 1$&nbsp; beim Bündelfehlerkanal kleiner ist als beim vergleichbaren BSC&ndash;Modell, zum Beispiel: &nbsp; $p_{\rm B}(n = 20) = 0.859$.}}<br>
  
Bevor wir dieses interessante Ergebnis interpretieren, beschreiben wie zunächst die endgültige Variante des Kanalmodells nach Wilhelm. Wir nennen es das <i>Wilhelm&ndash;A&ndash;Modell</i>.<br>
 
  
 
== Fehlerabstandsbetrachtung nach dem Wilhelm–A–Modell ==
 
== Fehlerabstandsbetrachtung nach dem Wilhelm–A–Modell ==
 
<br>
 
<br>
Wilhelm hat aus der angegebenen [http://www.lntwww.de/index.php?title=Digitalsignal%C3%BCbertragung/B%C3%BCndelfehlerkan%C3%A4le#Fehlerabstandsbetrachtung_zum_Wilhelm.E2.80.93Modell_.282.29 erzeugenden Funktion] <i>V</i><sub>a</sub>(<i>z</i>) eine weitere Näherung entwickelt, die er als das  <i>A&ndash;Modell</i> bezeichnet. Die Näherung basiert auf einer Taylorreihenentwicklung.<br>
+
Wilhelm hat aus der oben angegebenen&nbsp; [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_zum_Wilhelm.E2.80.93Modell|erzeugenden Funktion]]&nbsp; $V_a(z)$&nbsp; eine weitere Näherung entwickelt, die er als das&nbsp; ''A&ndash;Modell''&nbsp; bezeichnet. Die Näherung basiert auf einer Taylorreihenentwicklung.<br>
  
Das A&ndash;Modell nach Wilhelm beschreibt die angenäherte Fehlerabstandsverteilung in der Form
+
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; Das&nbsp; '''A&ndash;Modell'''&nbsp; nach Wilhelm beschreibt die angenäherte Fehlerabstandsverteilung in der Form
  
:<math>V_a\hspace{0.05cm}(k) = \frac {1 \cdot \alpha \cdot (1+\alpha) \cdot \hspace{0.05cm} ... \hspace{0.05cm}\cdot  (k-2+\alpha) }{(k-1)\hspace{0.05cm}!}\cdot  
+
::<math>V_a\hspace{0.05cm}(k) = \frac {1 \cdot \alpha \cdot (1+\alpha) \cdot \hspace{0.05cm} ... \hspace{0.05cm}\cdot  (k-2+\alpha) }{(k-1)\hspace{0.05cm}!}\cdot  
\left [ 1 - {p_{\rm S}^{1/\alpha}}\right ]^{k-1}  
+
\left [ 1 - {p_{\rm S}^{1/\alpha} }\right ]^{k-1}  
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
Insbesondere ergibt sich <i>V</i><sub>a</sub>(<i>k</i> = 1) = 1  und <i>V</i><sub>a</sub>(<i>k</i> = 2) = &alpha; &middot; (1 &ndash; <i>p</i><sub>S</sub><sup>1/&alpha;</sup>). Hierbei ist zu berücksichtigen, dass der Zähler des Vorfaktors aus <i>k</i> Faktoren besteht. Für <i>k</i> = 1 ergibt sich dieser demzufolge zu 1.<br>
+
*Insbesondere ergibt sich&nbsp; $V_a(k = 1) = 1$&nbsp; und&nbsp; $V_a(k = 2)= \alpha \cdot  (1 - p_{\rm S}^{1/\alpha})$.  
 +
*Hierbei ist zu berücksichtigen, dass der Zähler des Vorfaktors aus&nbsp; $k$&nbsp; Faktoren besteht. Für&nbsp; $k = 1$&nbsp; ergibt sich dieser Vorfaktor demzufolge zu $1$.}}<br>
  
Im nachfolgenden Beispiel vergleichen wir die Unterschiede der beiden Wilhelm&ndash;Modelle (L bzw. A) hinsichtlich der resultierenden Blockfehlerwahrscheinlichkeit.
+
Nun vergleichen wir die Unterschiede der beiden Wilhelm&ndash;Modelle ('''L''' bzw. '''A''') hinsichtlich resultierender Blockfehlerwahrscheinlichkeit.
  
{{Beispiel}} '''3 :''' [[Datei:P ID2831 Dig T 5 3 S5i version2.png|rahmenlos|rechts|Ergebnisse des Wilhelm–Modells für <i>p</i><sub>S</sub> = 0.2 und einige <i>α</i> ]] Nebenstehende Grafik zeigt den Verlauf der Blockfehlerwahrscheinlichkeiten <i>p</i><sub>B</sub>(<i>n</i>) für drei verschiedene <i>&alpha;</i>&ndash;Werte, erkennbar an den Farben  
+
[[Datei:P ID2831 Dig T 5 3 S5i version2.png|right|frame||Ergebnisse des Wilhelm–Modells für &nbsp;$p_{\rm S} = 0.01$&nbsp; und einige&nbsp; $\alpha$ ]]  
*Rot:&nbsp;&nbsp; <i>&alpha;</i> = 1 &nbsp;&#8658;&nbsp; BSC&ndash;Modell,<br>
+
{{GraueBox|TEXT= 
 +
$\text{Beispiel 8:}$&nbsp;  Nebenstehende Grafik zeigt den Verlauf der Blockfehlerwahrscheinlichkeiten&nbsp; $p_{\rm B}(n)$&nbsp; für drei verschiedene&nbsp; $\alpha$&ndash;Werte, erkennbar an den Farben  
 +
*Rot:&nbsp; &nbsp; &nbsp; &nbsp;$\alpha = 1$ &nbsp; &#8658; &nbsp; BSC&ndash;Modell,<br>
 +
*Blau:&nbsp;&nbsp; &nbsp; $\alpha = 0.95$ &nbsp;&#8658; &nbsp;  schwache Bündelung,<br>
 +
*Grün:&nbsp;&nbsp;&nbsp;  $\alpha = 0.7$ &nbsp; &#8658; &nbsp; starke Bündelung.<br><br>
  
*Blau:&nbsp; <i>&alpha;</i> = 0.95 &nbsp;&#8658;&nbsp; schwache Bündelung,<br>
+
Die durchgezogenen Linien gelten für das A&ndash;Modell und die gestrichelten für das L&ndash;Modell. Die im Bild angegebenen Zahlenwerte für&nbsp; $p_{\rm B}(n = 100)$&nbsp; beziehen sich ebenfalls auf das A&ndash;Modell.<br>
  
*Grün:&nbsp; <i>&alpha;</i> = 0.70 &nbsp;&#8658;&nbsp; starke Bündelung.<br><br>
+
Für $\alpha = 1$ geht sowohl das A&ndash;Modell als auch das L&ndash;Modell in das BSC&ndash;Modell (rote Kurve) über.  
  
Die durchgezogennen gelten für Linien das A&ndash;Modell und die gestrichelten für das L&ndash;Modell. Die im Bild angegebenen Zahlenwerte für <i>p</i><sub>B</sub>(<i>n</i> = 100) beziehen sich ebenfalls auf das A&ndash;Modell.<br>
+
Desweiteren ist anzumerken:
 
+
*Die Symbolfehlerwahrscheinlichkeit&nbsp; &nbsp;  $p_{\rm S} = 0.01$ &nbsp; &#8658; &nbsp; ${\rm E}\big[a \big ] = 100$&nbsp; &nbsp;  ist hier  (einigermaßen) realistisch angenommen. Alle Kurven starten so bei&nbsp; &nbsp;  $p_{\rm B}(n=1) = 0.01$ &nbsp; &#8658; &nbsp; gelber Punkt.<br>
Für <i>&alpha;</i> = 1 geht sowohl das A&ndash;Modell als auch das L&ndash;Modell in das BSC&ndash;Modell (rote Kurve) über. Desweiteren ist anzumerken:
 
*Die Symbolfehlerwahrscheinlichkeit <i>p</i><sub>S</sub> = 0.01  &nbsp;&#8658;&nbsp; E[<i>a</i> = 100] ist hier  (einigermaßen) realistisch angenommen. Alle Kurven starten deshalb bei <i>p</i><sub>B</sub>(<i>n</i> = 1) = 0.01 &nbsp;&#8658;&nbsp; gelbe Markierung.<br>
 
  
 
*Der Unterschied zwischen zwei gleichfarbigen Kurven ist gering (bei starker Bündelung etwas größer), wobei  die durchgezogene Kurve stets oberhalb der gestrichelten Kurve liegt.<br>
 
*Der Unterschied zwischen zwei gleichfarbigen Kurven ist gering (bei starker Bündelung etwas größer), wobei  die durchgezogene Kurve stets oberhalb der gestrichelten Kurve liegt.<br>
  
*Auch dieses Beispiel zeigt: Je stärker die Bündelung (kleineres <i>&alpha;</i>), desto kleiner ist <i>p</i><sub>B</sub>(<i>n</i>). Dies gilt allerdings nur, wenn man wie hier von einer konstanten Fehlerwahrscheinlichkeit <i>p</i><sub>S</sub> ausgeht.<br>
+
*Auch dieses Beispiel zeigt: &nbsp; &nbsp;  Je stärker die Bündelung $($kleineres &nbsp;$\alpha)$, desto kleiner ist die Blockfehlerwahrscheinlichkeit&nbsp; &nbsp;  $p_{\rm B}(n)$. Dies gilt allerdings nur, wenn man wie hier von einer konstanten Symbolfehlerwahrscheinlichkeit&nbsp; &nbsp;  $p_{\rm S}$&nbsp; &nbsp;  ausgeht.<br>
  
*Ein (dürftiger) Erklärungsversuch: Nehmen wir an, dass bei BSC mit sehr kleinem <i>p</i><sub>S</sub> jeder Blockfehler von genau einem Symbolfehler herrührt, dann wird bei gleicher Symbolfehleranzahl die Anzahl der Blockfehler kleiner, wenn zwei Symbolfehler in einen Block fallen (Bündelung).<br>
+
*Ein (dürftiger) Erklärungsversuch: &nbsp; &nbsp;  Nehmen wir an, dass bei BSC mit sehr kleinem&nbsp; $p_{\rm S}$&nbsp;  jeder Blockfehler von genau einem Symbolfehler herrührt, dann gibt es bei gleicher Symbolfehleranzahl weniger Blockfehler, wenn zwei Symbolfehler in einen Block fallen (Bündelung).<br>
  
*Noch ein (passendes?) Beispiel aus dem täglichen Leben. Man kann eine Straße mit konstantem Verkehrsaufkommen leichter überqueren, wenn die Fahrzeuge &bdquo;irgendwie gebündelt&rdquo; kommen.{{end}}<br>
+
*Noch ein (passenderes?) Beispiel aus dem täglichen Leben. Man kann eine Straße bei konstantem Verkehrsaufkommen leichter überqueren, wenn die Fahrzeuge &bdquo;irgendwie gebündelt&rdquo; kommen.}}<br>
  
== Fehlerkorrelationsfunktion des Wilhelm–Modells ==
+
== Fehlerkorrelationsfunktion des Wilhelm–A–Modells ==
 
<br>
 
<br>
Eine weitere Beschreibungsform der digitalen Kanalmodelle neben der Fehlerabstandsverteilung <i>V<sub>a</sub></i>(<i>k</i>) ist die [http://www.lntwww.de/Digitalsignal%C3%BCbertragung/Beschreibungsgr%C3%B6%C3%9Fen_digitaler_Kanalmodelle#Fehlerfolge_und_Fehlerkorrelationsfunktion Fehlerkorrelationsfunktion] <i>&phi;<sub>e</sub></i>(<i>k</i>) &ndash;  abgekürzt FKF. Geht man von der binären Fehlerfolge &#9001;<i>e<sub>&nu;</sub></i>&#9002; mit <i>e<sub>&nu;</sub></i> &#8712; {0, 1} aus, wobei <i>e<sub>&nu;</sub></i> = 0 eine richtige Übertragung und <i>e<sub>&nu;</sub></i> = 1 einen Symbolfehler (Bitfehler) hinsichtlich des <i>&nu;</i>&ndash;ten Bits bezeichnet, so gilt folgende Definition:
+
Eine weitere Beschreibungsform der digitalen Kanalmodelle ist neben der Fehlerabstandsverteilung&nbsp; $V_a(k)$&nbsp; die&nbsp; [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerkorrelationsfunktion|Fehlerkorrelationsfunktion]]&nbsp; $\varphi_{e}(k)$&nbsp; &ndash;  abgekürzt FKF. Wir gehen von der binären Fehlerfolge&nbsp; $\langle e_\nu \rangle$&nbsp; mit&nbsp; $e_\nu \in  \{0, 1\}$&nbsp; aus, wobei hinsichtlich des $\nu$&ndash;ten Bits
 +
*$e_\nu = 0$&nbsp; eine richtige Übertragung bezeichnet, und  
 +
*$e_\nu = 1$&nbsp; einen Symbolfehler (Bitfehler).
 +
 
 +
 
 +
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; 
 +
Die &nbsp;'''Fehlerkorrelationsfunktion'''&nbsp; $\varphi_{e}(k)$&nbsp; gibt die (zeitdiskrete)&nbsp; [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Autokorrelationsfunktion_bei_ergodischen_Prozessen|Autokorrelationsfunktion]]&nbsp; der ebenfalls zeitdiskreten Zufallsgröße&nbsp; $e$&nbsp; an.
  
:<math>\varphi_{e}(k) =  {\rm E}[e_{\nu} \cdot e_{\nu + k}] =
+
::<math>\varphi_{e}(k) =  {\rm E}\big[e_{\nu} \cdot e_{\nu + k}\big] =
\overline{e_{\nu} \cdot e_{\nu + k}}\hspace{0.05cm}.</math>
+
\overline{e_{\nu} \cdot e_{\nu + k} }\hspace{0.05cm}.</math>
  
<i>&phi;<sub>e</sub></i>(<i>k</i>) gibt die (zeitdiskrete) [http://www.lntwww.de/Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Zufallsprozesse_.281.29 Autokorrelationsfunktion] der ebenfalls zeitdiskreten Zufallsgröße <i>e</i> an. Die überstreichende Linie in der rechten Gleichung kennzeichnet die Zeitmittelung.<br>
+
Die überstreichende Linie in der rechten Gleichung kennzeichnet die Zeitmittelung.}}
  
Der Fehlerkorrelationswert <i>&phi;<sub>e</sub></i>(<i>k</i>) liefert statistische Aussagen bezüglich zwei um <i>k</i> auseinander liegende Folgenelemente, zum Beispiel über <i>e<sub>&nu;</sub></i> und <i>e<sub>&nu;</sub></i><sub>+<i>k</i></sub>. Die dazwischen liegenden Elemente <i>e<sub>&nu;</sub></i><sub>+1</sub>, ... , <i>e<sub>&nu;</sub></i><sub>+<i>k</i>&ndash;1</sub> beeinflussen den <i>&phi;<sub>e</sub></i>(<i>k</i>)&ndash;Wert nicht.<br>
 
  
Die Fehlerkorrelationsfunktion des Wilhelm&ndash;Modells kann  wie folgt angenähert werden:
+
Der Fehlerkorrelationswert&nbsp; $\varphi_{e}(k)$&nbsp; liefert statistische Aussagen bezüglich zwei um&nbsp; $k$&nbsp; auseinander liegender Folgenelemente, zum Beispiel über&nbsp; $e_{\nu}$&nbsp; und&nbsp; $e_{\nu +k}$. Die dazwischen liegenden Elemente&nbsp; $e_{\nu +1}$, ... , $e_{\nu +k-1}$&nbsp; beeinflussen dagegen den&nbsp; $\varphi_{e}(k)$&ndash;Wert nicht.<br>
  
:<math>\varphi_e\hspace{0.05cm}(k) p_{\rm S} \hspace{-0.03cm}\cdot \hspace{-0.03cm} \left [ 1 \hspace{-0.03cm}-\hspace{-0.03cm}  \frac{\alpha}{1\hspace{0.03cm}!}  \hspace{-0.03cm}\cdot \hspace{-0.03cm} C \hspace{-0.03cm}-\hspace{-0.03cm\frac{\alpha \cdot (1\hspace{-0.03cm}-\hspace{-0.03cm} \alpha)}{2\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^2 \hspace{-0.03cm}-\hspace{-0.03cm} \hspace{0.03cm} ... \hspace{0.03cm}\hspace{-0.03cm}-\hspace{-0.03cm} \frac {\alpha  \hspace{-0.03cm}\cdot \hspace{-0.03cm} (1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha)  \hspace{-0.03cm}\cdot \hspace{-0.03cm} \hspace{0.03cm} ... \hspace{0.03cm} \hspace{-0.03cm}\cdot \hspace{-0.03cm}  (k\hspace{-0.03cm}-\hspace{-0.03cm}1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha) }{k\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^k \right ]  </math>
+
{{BlaueBox|TEXT=   
 +
$\text{Ohne Beweis:}$&nbsp;   Die Fehlerkorrelationsfunktion des Wilhelm&ndash;A&ndash;Modells kann wie folgt angenähert werden:
  
Zur Abkürzung ist hierbei  <i>C</i>= 1 &ndash; <i>p</i><sub>S</sub><sup>1/&alpha;</sup> verwendet. Auf die Herleitung wird hier verzichtet.<br>
+
:<math>\varphi_e\hspace{0.05cm}(k) =  p_{\rm S} \hspace{-0.03cm}\cdot \hspace{-0.03cm} \left [ 1 \hspace{-0.03cm}-\hspace{-0.03cm}  \frac{\alpha}{1\hspace{0.03cm}!}  \hspace{-0.03cm}\cdot \hspace{-0.03cm} C \hspace{-0.03cm}-\hspace{-0.03cm}  \frac{\alpha \cdot (1\hspace{-0.03cm}-\hspace{-0.03cm} \alpha)}{2\hspace{0.03cm}!}  \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^2 \hspace{-0.03cm}-\hspace{-0.03cm} \hspace{0.05cm} \text{...} \hspace{0.05cm}\hspace{-0.03cm}-\hspace{-0.03cm} \frac {\alpha  \hspace{-0.03cm}\cdot \hspace{-0.03cm} (1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha)  \hspace{-0.03cm}\cdot \hspace{-0.03cm} \hspace{0.05cm} \text{...} \hspace{0.05cm} \hspace{-0.03cm}\cdot \hspace{-0.03cm}  (k\hspace{-0.03cm}-\hspace{-0.03cm}1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha) }{k\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^k \right ]  </math>
 +
 
 +
Zur Abkürzung ist&nbsp;  $C = (1-p_{\rm S})^{1/\alpha}$&nbsp; verwendet. Auf die Herleitung wird hier verzichtet.}}<br>
  
 
Nachfolgend werden die Eigenschaften der Fehlerkorrelationsfunktion an einem Beispiel aufgezeigt.<br>
 
Nachfolgend werden die Eigenschaften der Fehlerkorrelationsfunktion an einem Beispiel aufgezeigt.<br>
  
{{Beispiel}} '''3:'''
+
[[Datei:P ID2834 Dig T 5 3 S5korr version2.png|right|frame||Fehlerkorrelationsfunktionen des Wilhelm–Modells]]  
[[Datei:P ID2834 Dig T 5 3 S5korr version2.png|rahmenlos|Fehlerkorrelationsfunktionen des Wilhelm–Modells|right]] Wie im [http://www.lntwww.de/index.php?title=Digitalsignal%C3%BCbertragung/B%C3%BCndelfehlerkan%C3%A4le#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell Beispiel 2] gelte <i>p</i><sub>S</sub> = 0.01. Die hier dargestellten Fehlerkorrelationsfunktionen stehen wieder für
+
{{GraueBox|TEXT= 
*<i>&alpha;</i> = 0.7 (grüne Kurve),<br>
+
$\text{Beispiel 9:}$&nbsp; 
 +
Wie im&nbsp; [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell| $\text{Beispiel 8}$]]&nbsp; gelte&nbsp; $p_{\rm S} = 0.01$. Die hier dargestellten Fehlerkorrelationsfunktionen stehen wieder für
 +
*Grün:&nbsp;&nbsp;&nbsp;  $\alpha = 0.7$ &nbsp; &#8658; &nbsp; starke Bündelung.
 +
*Blau:&nbsp;&nbsp; &nbsp; $\alpha = 0.95$ &nbsp;&#8658; &nbsp; schwache Bündelung,<br>
 +
*Rot:&nbsp; &nbsp; &nbsp; &nbsp;$\alpha = 1$ &nbsp; &#8658; &nbsp; BSC&ndash;Modell,<br>
  
*<i>&alpha;</i> = 0.95 (blaue Kurve) und<br>
 
  
*<i>&alpha;</i> = 1 (BSC, rote Kurve).<br><br>
+
Die folgenden Aussagen lassen sich weitgehend verallgemeinern, siehe auch&nbsp; [[Digitalsignalübertragung/Binary_Symmetric_Channel_(BSC)#Binary_Symmetric_Channel_.E2.80.93_Modell_und_Fehlerkorrelationsfunktion| GE&ndash;Modell]]:
 +
*Der FKF-Wert an der Stelle&nbsp; $k = 0$&nbsp; ist bei allen Kanälen gleich&nbsp; $p_{\rm S} = 10^{-2}$&nbsp; (markiert durch den Kreis mit grauer Füllung) und der Grenzwert für&nbsp; $k \to \infty$&nbsp; liegt stets bei&nbsp; $p_{\rm S}^2 = 10^{-4}$.<br>
  
<br><br><br><br><br><br>Die nachfolgenden Aussagen lassen sich weitgehend verallgemeinern, siehe auch [http://www.lntwww.de/index.php?title=Digitalsignal%C3%BCbertragung/B%C3%BCndelfehlerkan%C3%A4le#Fehlerkorrelationsfunktion_des_GE.E2.80.93Modells GE&ndash;Modell]:
+
*Dieser Endwert wird beim BSC&ndash;Modell bereits bei&nbsp; $k = 1$&nbsp;  erreicht (rot gefüllte Markierung). Hier kann die FKF also nur die beiden Werte&nbsp; $p_{\rm S}$&nbsp; und&nbsp; $p_{\rm S}^2$&nbsp; annehmen.<br>
*Der FKF-Wert an der Stelle <i>k</i> = 0 ist bei allen Kanälen gleich <i>p</i><sub>S</sub> = 0.01 (markiert durch den Kreis mit grauer Füllung) und der Grenzwert für <i>k</i> &#8594; &#8734; liegt stets bei <i>p</i><sub>S</sub><sup>2</sup> = 0.0001.<br>
 
  
*Dieser Endwert wird beim BSC&ndash;Modell bereits bei <i>k</i> = 1 erreicht (rot gefüllte Markierung). Hier kann die FKF also nur die beiden Werte <i>p</i><sub>S</sub>  und <i>p</i><sub>S</sub><sup>2</sup> annehmen.<br>
+
*Auch für für&nbsp; $\alpha < 1$&nbsp; (blaue und grüne Kurve) erkennt man einen Knick bei&nbsp; $k = 1$. Danach verläuft die FKF monoton fallend. Der Abfall ist umso langsamer, je kleiner&nbsp; $\alpha$&nbsp; ist, also je gebündelter die Fehler auftreten.}}<br>
  
*Auch für für <i>&alpha;</i> &ne; 1 erkennt man einen Knick bei <i>k</i> = 1. Danach verläuft die FKF monoton fallend. Der Abfall ist umso langsamer, je kleiner <i>&alpha;</i> ist, also je gebündelter die Fehler auftreten.{{end}}<br>
+
== Analyse von Fehlerstrukturen mit dem Wilhelm–A–Modell==
 +
<br>
 +
Wilhelm hat sein Kanalmodell hauptsächlich deshalb entwickelt, um aus gemessenen Fehlerfolgen Rückschlüsse über die dabei auftretenden Fehler machen zu können. Aus der Vielzahl der Analysen in&nbsp; [Wil11]<ref name='Wil11'>Wilhelm, C.:&nbsp; A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. Neue Kanalmodelle mit Formeln für die Wahrscheinlichkeit von Fehlerstrukturen.&nbsp; [http://www.channels-networks.net/ Internet-Veröffentlichungen zu Channels-Networks,] 2011ff.</ref>&nbsp; sollen hier nur einige wenige angeführt werden, wobei stets die Symbolfehlerwahrscheinlichkeit&nbsp; $p_{\rm S} = 10^{-3}$&nbsp; zugrunde liegt.
 +
*In den Grafiken gilt jeweils die rote Kurve für statistisch unabhängige Fehler $($BSC bzw.&nbsp; $\alpha = 1)$,
 +
*die grüne Kurve für einen Bündelfehlerkanal mit&nbsp; $\alpha = 0.7$. Zudem soll folgende Vereinbarung gelten:<br>
  
== Analyse von Fehlerstrukturen mit dem Wilhelm–Modell (1) ==
+
{{BlaueBox|TEXT=
<br>
+
$\text{Definition:}$&nbsp;  Ein&nbsp; '''Fehlerburst'''&nbsp; (oder kurz <i>Burst</i>) beginnt stets mit einem Symbolfehler und endet, wenn&nbsp; $k_{\rm Burst}- 1$&nbsp; fehlerfreie Symbole aufeinanderfolgen.
Wilhelm hat sein Kanalmodell hauptsächlich deshalb entwickelt, um aus gemessenen Fehlerfolgen Rückschlüsse über die dabei auftretenden Fehler machen zu können. Aus der Vielzahl der Analysen in [Wil11]<ref> Wilhelm, C.: ''A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. Neue Kanalmodelle mit Formeln für die Wahrscheinlichkeit von Fehlerstrukturen.'' [http://www.channels-networks.net/ Internet-Veröffentlichungen zu Channels-Networks], 2011ff.</ref> sollen hier nur einige wenige angeführt werden, wobei stets die Symbolfehlerwahrscheinlichkeit <i>p</i><sub>S</sub> = 0.001 zugrunde liegt. In den Grafiken gilt jeweils die rote Kurve für statistisch unabhängige Fehler (BSC bzw. <i>&alpha;</i> = 1) und die grüne Kurve für einen Bündelfehlerkanal mit <i>&alpha;</i> = 0.7. Zudem soll gelten:<br>
+
*$k_{\rm Burst}$&nbsp; bezeichnet den <i>Burst&ndash;Endeparameter</i>.
 +
*Das <i>Burstgewicht</i> &nbsp; $G_{\rm Burst}$&nbsp; entspricht der Anzahl aller Symbolfehler im Burst.  
 +
*Bei einem <i>Einzelfehler</i>&nbsp; gilt &nbsp;$G_{\rm Burst}= 1$&nbsp; und die <i>Burstlänge</i> (bestimmt durch den ersten und letzten Fehler) ist ebenfalls&nbsp; $L_{\rm Burst}= 1$.}}<br>
  
{{Definition}}''':''' Ein Fehlerburst (oder kurz <i>Burst</i>) beginnt stets mit einem Symbolfehler und endet, wenn <i>k</i><sub>Burst</sub> &ndash; 1 fehlerfreie Symbole aufeinanderfolgen; <i>k</i><sub>Burst</sub> bezeichnet den <i>Burst&ndash;Endeparameter</i>. Das <i>Burstgewicht</i> <i>G</i><sub>Burst</sub> entspricht der Anzahl aller Symbolfehler im Burst. Bei einem <i>Einzelfehler</i> gilt <i>G</i><sub>Burst</sub> = 1 und die <i>Burstlänge </i><i>L</i><sub>Burst</sub> (bestimmt durch den ersten und letzten Fehler) ist ebenfalls 1.{{end}}<br>
+
[[Datei:P ID2835 Dig T 5 3 S5 Analyse1 kleiner.png|right|frame|Einzelfehlerwahrscheinlichkeit in einem Block der Länge&nbsp; $n$]]
 +
{{GraueBox|TEXT=
 +
$\text{Beispiel 10:}\ \text{Wahrscheinlichkeit }p_1\text{ eines Einzelfehlers in einer Probe der Länge} \ n$
  
Wahrscheinlichkeit eines Einzelfehlers in einer Probe der Länge <i>n</i> &nbsp;&nbsp;&#8658;&nbsp;&nbsp; <i>p</i><sub>1</sub><br>
+
Für den BSC&ndash;Kanal&nbsp; $(\alpha = 1)$&nbsp; gilt&nbsp; $p_1 = n \cdot  0.001 \cdot 0.999^{n-1}$ &nbsp; &#8658; &nbsp; rote Kurve. Aufgrund der doppel&ndash;logarithmischen Darstellung ergibt sich mit diesen Zahlenwerten ein (nahezu) linearer Verlauf. Beim BSC&ndash;Modell treten also Einzelfehler in einer Probe der Länge&nbsp; $n = 100$&nbsp; mit etwa&nbsp; $9\%$&nbsp; Wahrscheinlichkeit auf.<br>
  
[[Datei:P ID2835 Dig T 5 3 S5 Analyse1 kleiner.png|rahmenlos|rechts|Wahrscheinlichkeit eines Einzelfehlers in einem Block der Länge <i>n</i>]]
+
Beim Bündelfehlerkanal mit&nbsp; $\alpha = 0.7$&nbsp; (grüne Kurve) beträgt die entsprechende Wahrscheinlichkeit nur etwa&nbsp; $0.7\%$&nbsp; und der Kurvenverlauf ist hier leicht gekrümmt.
  
Für den BSC&ndash;Kanal (<i>&alpha;</i> = 1) gilt <i>p</i><sub>1</sub> = <i>n</i> &middot; 0.001 &middot; 0.999<sup><i>n</i>&ndash;1</sup> &nbsp;&#8658;&nbsp; rote Kurve. Aufgrund der doppel&ndash;logarithmischen Darstellung ergibt sich mit diesen Zahlenwerten ein (nahezu) linearer Verlauf. Beim BSC&ndash;Modell treten also Einzelfehler in einer Probe der Länge <i>n</i> = 100 mit etwa 9% Wahrscheinlichkeit auf.<br>
 
  
Beim Bündelfehlerkanal mit <i>&alpha;</i> = 0.7 (grüne Kurve) beträgt die entsprechende Wahrscheinlichkeit nur etwa 0.7% und der Kurvenverlauf ist hier leicht gekrümmt. Bei der folgenden Rechnung gehen wir zunächst von der Annahme aus, dass der Einzelfehler  in der Probe der Länge <i>n</i> an Position <i>b</i> auftritt:
+
Bei der folgenden Rechnung gehen wir zunächst von der Annahme aus, dass der Einzelfehler  in der Probe der Länge&nbsp; $n$&nbsp; an der Position&nbsp; $b$&nbsp; auftritt:
  
*Bei einem Einzelfehler müssen dann noch <i>n</i> &ndash; <i>b</i> fehlerfreie Symbole folgen.  Nach Mittelung über die möglichen Fehlerpositionen <i>b</i> erhält man somit:
+
*Bei einem Einzelfehler müssen dann noch&nbsp; $n-b$&nbsp; fehlerfreie Symbole folgen.  Nach Mittelung über die möglichen Fehlerpositionen&nbsp; $b$&nbsp; erhält man somit:
  
 
::<math>p_1 =  p_{\rm S} \cdot \sum_{b = 1}^{n} \hspace{0.15cm}V_a (b) \cdot V_a (n+1-b)
 
::<math>p_1 =  p_{\rm S} \cdot \sum_{b = 1}^{n} \hspace{0.15cm}V_a (b) \cdot V_a (n+1-b)
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
*Wegen der Ähnlichkeit mit der Signaldarstellung eines Digitalen Filters kann man die Summe als Faltung von <i>V<sub>a</sub></i>(<i>b</i>) mit sich selbst bezeichnen. Für die erzeugende Funktion  <i>V<sub>a</sub></i>(<i>z</i>) wird aus der Faltung ein Produkt (bzw. wegen <i>V<sub>a</sub></i>(<i>b</i>) &#8727; <i>V<sub>a</sub></i>(<i>b</i>) das Quadrat) und man erhält folgende Gleichung:
+
*Wegen der Ähnlichkeit mit der Signaldarstellung eines&nbsp; [[Stochastische_Signaltheorie/Digitale_Filter|Digitalen Filters]]&nbsp; kann man die Summe als Faltung von&nbsp; $V_a(b)$&nbsp; mit sich selbst bezeichnen. Für die erzeugende Funktion&nbsp; $V_a(z)$&nbsp; wird aus der Faltung ein Produkt (bzw. wegen&nbsp; $V_a(b) \star V_a(b)$&nbsp; das Quadrat) und man erhält folgende Gleichung:
  
::<math>V_a(z=1) \cdot V_a(z=1) = \left [ V_a(z=1) \right ]^2 =  
+
::<math>V_a(z=1) \cdot V_a(z=1) = \big [ V_a(z=1) \big ]^2 =  
{\left [ 1 -(1- {p_{\rm S}}^{1/\alpha})\right ]^{-2\alpha}} \hspace{0.05cm}.</math>
+
{\big [ 1 -(1- {p_{\rm S} }^{1/\alpha})\big ]^{-2\alpha} } \hspace{0.05cm}.</math>
  
*Mit der spezifischen [http://www.lntwww.de/index.php?title=Digitalsignal%C3%BCbertragung/B%C3%BCndelfehlerkan%C3%A4le#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell Fehlerabstandsverteilung] <i>V<sub>a</sub></i>(<i>z</i>) erhält man somit folgendes Endergebnis:  
+
*Mit der&nbsp;  [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell|spezifischen Fehlerabstandsverteilung]]&nbsp; $V_a(z)$&nbsp; erhält man somit folgendes Endergebnis:  
  
 
::<math>p_1 =  p_{\rm S}
 
::<math>p_1 =  p_{\rm S}
\cdot \frac{2\alpha \cdot (2\alpha+1) \cdot  \hspace{0.05cm} ... \hspace{0.05cm} \cdot (2\alpha+n-2)}
+
\cdot \frac{2\alpha \cdot (2\alpha+1) \cdot  \hspace{0.05cm} \text{... } \hspace{0.05cm} \cdot (2\alpha+n-2)}
 
{(n-1)!}\cdot
 
{(n-1)!}\cdot
(1- {p_{\rm S}}^{1/\alpha})^{n-1} \hspace{0.05cm}.</math><br>
+
(1- {p_{\rm S} }^{1/\alpha})^{n-1} \hspace{0.05cm}.</math>}}<br>
 +
 
 +
[[Datei:P ID2836 Dig T 5 3 S5 Analyse2 neu.png|right|frame|Mittlere Fehleranzahl im Burst der Länge&nbsp; $k$]]
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 11:}\ \text{Mittlere Fehleranzahl } {\rm E}[G_{\rm Burst}] \text{ in einem Burst mit Endeparameter }k_{\rm Burst}$
 +
 
 +
Die mittlere Symbolfehlerwahrscheinlichkeit sei weiterhin&nbsp; $p_{\rm S} = 10^{-3}$, also (relativ) klein.<br>
 +
 
 +
'''(1) &nbsp; Rote Kurve für den BSC&ndash;Kanal&nbsp; (bzw. &nbsp;$\alpha = 1)$''':
 +
* Der Parameter&nbsp; $k_{\rm Burst}= 10$&nbsp; bedeutet beispielsweise, dass der Burst beendet ist, wenn nach einem Fehler neun fehlerfreie Symbole folgenden. Die Wahrscheinlichkeit für einen Fehlerabstand&nbsp; $a \le 9$&nbsp; ist bei kleinem&nbsp; $p_{\rm S}$&nbsp; $($hier: &nbsp;$10^{-3})$&nbsp; äußerst klein. Daraus folgt weiter, dass dann (fast) jeder Einzelfehler als ein &bdquo;Burst&rdquo; aufgefasst wird, und es gilt&nbsp; ${\rm E}[G_{\rm Burst}] \approx 1.01$ .<br>
 +
* Bei größerem Burst&ndash;Endeparameter&nbsp; $k_{\rm Burst}$&nbsp; nimmt auch die Wahrscheinlichkeit&nbsp; ${\rm Pr}(a \le k_{\rm Burst})$&nbsp; deutlich zu und es kommt zu &bdquo;Bursts&rdquo; mit mehr als einem Fehler. Wählt man beispielsweise&nbsp; $k_{\rm Burst}= 100$, so beinhaltet ein &bdquo;Burst&rdquo; im Mittel&nbsp; $1.1$&nbsp; Symbolfehler.<br>
 +
*Das bedeutet gleichzeitig, dass es auch beim BSC&ndash;Modell  zu langen Fehlerbursts (entsprechend unserer Definition) kommen kann, wenn bei gegebenem&nbsp; $p_{\rm S}$&nbsp; der Burst&ndash;Endeparameter zu groß gewählt ist oder bei vorgegebenem&nbsp; $k_{\rm Burst}$&nbsp;  die mittlere Fehlerwahrscheinlichkeit&nbsp;  $p_{\rm S}$&nbsp; zu groß ist.<br><br>
  
== Analyse von Fehlerstrukturen mit dem Wilhelm–Modell (2) ==
 
<br>
 
Mittlere Fehleranzahl in einem Burst mit dem Burst&ndash;Endeparameter <i>k</i><sub>Burst</sub> &nbsp;&nbsp;&#8658;&nbsp;&nbsp; E[<i>G</i><sub>Burst</sub>]<br>
 
  
[[Datei:P ID2836 Dig T 5 3 S5 Analyse2 neu.png|rechts|Mittlere Fehleranzahl im Burst der Länge <i>k</i>]]
+
'''(2) &nbsp; Grüne Kurve für den Wilhelm&ndash;Kanal mit &nbsp;$\alpha = 0.7$''':
 +
 
 +
Das hier angegebene Verfahren zur numerischen Bestimmung der mittleren Fehleranzahl&nbsp; ${\rm E}[G_{\rm Burst}]$&nbsp; eines Bursts kann unabhängig vom&nbsp; $\alpha$&ndash;Wert  angewendet werden. Man geht wie folgt vor:
  
Die mittlere Symbolfehlerwahrscheinlichkeit wird weiterhin mit <i>p</i><sub>S</sub> = 0.001 als (relativ) klein angenommen.<br>
+
*Entsprechend den Fehlerabstandswahrscheinlichkeiten&nbsp; ${\rm Pr}(a=k)$&nbsp; generiert man eine Fehlerfolge $e_1$,&nbsp; $e_2$,&nbsp; ... , $e_i$,&nbsp; ...&nbsp; mit den Fehlerabständen&nbsp; $a_1$,&nbsp; $a_2$,&nbsp; ... , $a_i$,&nbsp; ... <br>
#Rote Kurve für den BSC&ndash;Kanal (bzw. <i>&alpha;</i> = 1):
+
*Ist ein Fehlerabstand&nbsp; $a_i \ge k_{\rm Burst}$, so markiert dieser das Ende eines Bursts.  Ein solches Ereignis tritt mit der Wahrscheinlichkeit&nbsp; ${\rm Pr}(a \ge k_{\rm Burst}) = V_a(k_{\rm Burst} )$&nbsp; ein.<br>
#* Der Parameter <i>k</i><sub>Burst</sub> = 10 bedeutet beispielsweise, dass der Burst beendet ist, wenn nach einem Fehler neun fehlerfreie Symbole aufeinanderfolgenden. Die Wahrscheinlichkeit für einen Fehlerabstand <i>a</i> &#8804; 9 ist bei kleinem <i>p</i><sub>S</sub> (hier: 0.001) äußerst klein. Daraus folgt weiter, dass dann (fast) jeder Einzelfehler als ein &bdquo;Burst&rdquo; aufgefasst wird, und es gilt E[<i>G</i><sub>Burst</sub>] &asymp; 1.01.<br>
+
*Wir zählen solche Ereignisse &bdquo;$a_i \ge k_{\rm Burst}$&rdquo; im gesamten Block der Länge&nbsp; $n$. Deren Anzahl ist gleichzeitig die Anzahl&nbsp; $N_{\rm Burst}$&nbsp; der Bursts im Block. <br>
#* Bei größerem Burst&ndash;Endeparameter nimmt auch die Wahrscheinlichkeit Pr(<i>a</i> &#8804; <i>k</i><sub>Burst</sub>) deutlich zu und es kommt zu &bdquo;Bursts&rdquo; mit mehr als einem Fehler. Wählt man beispielsweise <i>k</i><sub>Burst</sub> = 100, so beinhaltet ein &bdquo;Burst&rdquo; im Mittel 1.1 Symbolfehler.<br>
+
*Gleichzeitig gilt die Beziehung&nbsp; $N_{\rm Burst} = N_{\rm Fehler} \cdot V_a(k_{\rm Burst} )$, wobei&nbsp; $N_{\rm Fehler}$&nbsp; die Anzahl aller Fehler im Block angibt.  
#*Das bedeutet gleichzeitig, dass es auch beim BSC&ndash;Modell  zu langen Fehlerbursts (entsprechend unserer Definition) kommen kann, wenn bei gegebenem <i>p</i><sub>S</sub> der Burst&ndash;Endeparameter zu groß gewählt ist oder bei vorgegebenem <i>k</i><sub>Burst</sub> die mittlere Fehlerwahrscheinlichkeit  <i>p</i><sub>S</sub> zu groß ist.<br><br>
+
*Daraus lässt sich die mittlere Fehlerzahl pro Burst in einfacher Weise berechnen:
# Grüne Kurve für den Wilhelm&ndash;Kanal mit <i>&alpha;</i> = 0.7:
 
#:Das hier angegebene Verfahren zur numerischen Bestimmung der mittleren Fehleranzahl E[<i>G</i><sub>Burst</sub>] eines Bursts kann unabhängig vom <i>&alpha;</i>&ndash;Wert  angewendet werden. Man geht wie folgt vor:
 
#*Entsprechend den Fehlerabstandswahrscheinlichkeiten Pr(<i>a</i> = <i>k</i>) generiert man eine Fehlerfolge <i>e</i><sub>1</sub>, <i>e</i><sub>2</sub>, ... , <i>e<sub>i</sub></i>, ... mit den Fehlerabständen <i>a</i><sub>1</sub>, <i>a</i><sub>2</sub>, ...  , <i>a<sub>i</sub></i>, ...<br>
 
#*Ist ein Fehlerabstand <i>a<sub>i</sub></i> &#8805; <i>k</i><sub>Burst</sub>, so kennzeichnet dieser das Ende eines Bursts.  Ein solches Ereignis tritt mit der Wahrscheinlichkeit Pr(<i>a</i> &#8805; <i>k</i><sub>Burst</sub>) = <i>V<sub>a</sub></i>(<i>k</i><sub>Burst</sub>) ein.<br>
 
#*Wir zählen solche Ereignisse &bdquo;<i>a<sub>i</sub></i> &#8805; <i>k</i><sub>Burst</sub>&rdquo; im gesamten Block der Länge <i>n</i>. Deren Anzahl ist gleichzeitig die Anzahl der Burst im Block. Wir bezeichnen diese Anzahl mit  <i>N</i><sub>Burst</sub>.<br>
 
#*Gleichzeitig gilt die Beziehung <i>N</i><sub>Burst</sub> = <i>N</i><sub>Fehler</sub> &middot; <i>V<sub>a</sub></i>(<i>k</i><sub>Burst</sub>), wobei <i>N</i><sub>Fehler</sub> die Anzahl aller Fehler im Block angibt. Daraus lässt sich die mittlere Fehlerzahl pro Burst in einfacher Weise berechnen:
 
  
:::<math>{\rm E}[G_{\rm Burst}] =\frac {N_{\rm Fehler}}{N_{\rm Burst}} =\frac {1}{V_a(k_{\rm Burst})}\hspace{0.05cm}.</math>
+
::<math>{\rm E}[G_{\rm Burst}] =\frac {N_{\rm Fehler} }{N_{\rm Burst} } =\frac {1}{V_a(k_{\rm Burst})}\hspace{0.05cm}.</math>
  
Die Marker in der Grafik korrespondieren mit folgenden Zahlenwerten der [http://www.lntwww.de/index.php?title=Digitalsignal%C3%BCbertragung/B%C3%BCndelfehlerkan%C3%A4le#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell Fehlerabstandsverteilung]. Die grünen Kreise (Wilhelm&ndash;Kanal, <i>&alpha;</i> = 0.7) ergeben sich aus <i>V<sub>a</sub></i>(10) = 0.394 und <i>V<sub>a</sub></i>(100) = 0.193, die roten Kreise (BSC&ndash;Kanal, <i>&alpha;</i> = 1) sind die Kehrwerte von <i>V<sub>a</sub></i>(10) = 0.991 und <i>V<sub>a</sub></i>(100) = 0906.<br>
+
Die Markierungen in der Grafik korrespondieren mit folgenden Zahlenwerten der&nbsp; [[Digitalsignal%C3%BCbertragung/B%C3%BCndelfehlerkan%C3%A4le#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell|Fehlerabstandsverteilung]]:
 +
*Die grünen Kreise $($Wilhelm&ndash;Kanal,&nbsp; $\alpha = 0.7)$&nbsp; ergeben sich aus&nbsp; $V_a(10) = 0.394$&nbsp; und&nbsp; $V_a(100) = 0.193$.
 +
*Die roten Kreise $($BSC&ndash;Kanal, &nbsp;$\alpha = 1)$&nbsp; sind die Kehrwerte von&nbsp; $V_a(10) = 0.991$&nbsp; und &nbsp;$V_a(100) = 0906$.}}<br>
  
== Aufgaben ==
+
== Aufgaben zum Kapitel ==
 
<br>
 
<br>
[[Aufgaben:5.6 Fehlerkorrelationsdauer|A5.6 Fehlerkorrelationsdauer]]
+
[[Aufgaben:5.6:_Fehlerkorrelationsdauer|Aufgabe 5.6: Fehlerkorrelationsdauer]]
 +
 
 +
[[Aufgaben:5.6Z_GE-Modelleigenschaften|Aufgabe 5.6Z: GE-Modelleigenschaften]]
 +
 
 +
[[Aufgaben:5.7_McCullough-Parameter_aus_Gilbert-Elliott-Parameter|Aufgabe 5.7: McCullough-Parameter aus Gilbert-Elliott-Parameter]]
 +
 
 +
[[Aufgaben:5.7Z_Nochmals_McCullough-Modell|Aufgabe 5.7Z: Nochmals McCullough-Modell]]
  
[[Zusatzaufgaben:5.6 GE-Modelleigenschaften]]
 
  
[[Aufgaben:5.7 MC- aus GE-Parameter|A5.7 MC- aus GE-Parameter]]
 
  
[[Zusatzaufgaben:5.7 Nochmals MC-Modell]]
 
  
 
==Quellenverzeichnis==
 
==Quellenverzeichnis==

Aktuelle Version vom 13. Oktober 2022, 12:00 Uhr

Kanalmodell nach Gilbert–Elliott


Dieses auf  E. N. Gilbert  [Gil60][1]  und  E. O. Elliott  [Ell63][2]  zurückgehende Kanalmodell eignet sich zur Beschreibung und Simulation von digitalen Übertragungssystemen mit Bündelfehlercharakteristik.

Gilbert–Elliott–Kanalmodell mit zwei Zuständen

Das  Gilbert–Elliott–Modell  (Kurzbezeichnung: GE–Modell) lässt sich wie folgt charakterisieren:

  • Die unterschiedliche Übertragungsqualität zu unterschiedlichen Zeiten wird durch eine endliche Anzahl  $g$  von Kanalzuständen  $(Z_1, Z_2,\hspace{0.05cm} \text{...} \hspace{0.05cm}, Z_g)$  ausgedrückt.
  • Die in Wirklichkeit fließenden Übergänge der Störintensität – im Extremfall von völlig fehlerfreier Übertragung bis hin zum Totalausfall – werden beim GE–Modell durch feste Wahrscheinlichkeiten in den einzelnen Kanalzuständen approximiert.
  • Die Übergänge zwischen den  $g$  Zuständen erfolgen gemäß einem  Markovprozess  (1. Ordnung) und werden durch  $g \cdot (g-1)$  Übergangswahrscheinlichkeiten gekennzeichnet. Zusammen mit den  $g$  Fehlerwahrscheinlichkeiten in den einzelnen Zuständen gibt es somit  $g^2$  freie Modellparameter.
  • Aus Gründen der mathematischen Handhabbarkeit beschränkt man sich meist auf  $g = 2$  Zustände und bezeichnet diese mit  $\rm G$  („GOOD”) und  $\rm B$  („BAD”). Meist wird die Fehlerwahrscheinlichkeit im Zustand  $\rm G$  sehr viel kleiner sein als im Zustand  $\rm B$.
  • Im Folgenden benutzen wir diese beiden Fehlerwahrscheinlichkeiten  $p_{\rm G}$  und  $p_{\rm B}$, wobei  $p_{\rm G} < p_{\rm B}$  gelten soll, sowie die Übergangswahrscheinlichkeiten  ${\rm Pr}({\rm B}\hspace{0.05cm}|\hspace{0.05cm}{\rm G})$  und  ${\rm Pr}({\rm G}\hspace{0.05cm}|\hspace{0.05cm}{\rm B})$. Damit sind auch die beiden anderen Übergangswahrscheinlichkeiten festgelegt:
\[{\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G) = 1 - {\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G), \hspace{0.2cm} {\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} B) = 1 - {\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B)\hspace{0.05cm}.\]
Beispielhafte GE–Fehlerfolge

$\text{Beispiel 1:}$  Wir betrachten das GE–Modell mit den Parametern

$$p_{\rm G} = 0.01,$$
$$p_{\rm B} = 0.4,$$
$${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) = 0.1, $$
$$ {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G) = 0.01\hspace{0.05cm}.$$

Das zugrundeliegende Modell ist am Beispielende mit den hier angegebenen Parametern dargestellt.

Die obere Grafik zeigt eine (mögliche) Fehlerfolge der Länge  $N = 800$. Befindet sich das GE–Modell im Zustand „BAD”, so erkennt man dies an der grauen Hinterlegung.

Zur Simulation einer solchen GE–Fehlerfolge wird zwischen den Zuständen „GOOD” und „BAD” entsprechend den vier Übergangswahrscheinlichkeiten umgeschaltet.

  • Beim ersten Aufruf erfolgt die Auswahl des Zustandes zweckmäßigerweise gemäß den Wahrscheinlichkeiten  $w_{\rm G}$  und  $w_{\rm B}$, wie nachfolgend berechnet.
  • Zu jedem Taktzeitpunkt wird genau ein Element der Fehlerfolge  $ \langle e_\nu \rangle$  entsprechend der aktuellen Fehlerwahrscheinlichkeit  $(p_{\rm G}$  bzw.  $p_{\rm B})$  erzeugt.
  • Die  Fehlerabstandssimulation  ist hier nicht anwendbar, da beim GE–Modell ein Zustandswechsel nach jedem Symbol (und nicht nur nach einem Fehler) möglich ist.


Die Wahrscheinlichkeiten, dass sich die Markovkette im Zustand „GOOD” bzw. „BAD” befindet, lassen sich aus der vorausgesetzten Homogenität und Stationarität berechnen. Man erhält mit den obigen Zahlenwerten:

\[w_{\rm G} = {\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}G)}= \frac{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B)}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.1}{0.1 + 0.01} = {10}/{11}\hspace{0.05cm},\]
\[w_{\rm B} = {\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}B)}= \frac{ {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.11}{0.1 + 0.01} = {1}/{11}\hspace{0.05cm}.\]
Betrachtetes GE–Modell

Mit diesen beiden Zustandswahrscheinlichkeiten kann auch die mittlere Fehlerwahrscheinlichkeit des GE–Modells ermittelt werden:

\[p_{\rm M} = w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B} = \frac{p_{\rm G} \cdot {\rm Pr}({\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B)}+ p_{\rm B} \cdot {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G)} \hspace{0.05cm}.\]

Insbesondere gilt für das hier beispielhaft betrachtete Modell:

\[p_{\rm M} ={10}/{11} \cdot 0.01 +{1}/{11} \cdot 0.4 = {1}/{22} \approx 4.55\%\hspace{0.05cm}.\]


Fehlerabstandsverteilung des GE–Modells


Fehlerabstandsverteilung von GE– und BSC–Modell

In  [Hub82][3]  finden sich die analytischen Berechnungen

  • der Wahrscheinlichkeit des Fehlerabstandes  $k$:
\[{\rm Pr}(a=k) = \alpha_{\rm G} \cdot \beta_{\rm G}^{\hspace{0.05cm}k-1} \cdot (1- \beta_{\rm G}) + \alpha_{\rm B} \cdot \beta_{\rm B}^{\hspace{0.05cm}k-1} \cdot (1- \beta_{\rm B})\hspace{0.05cm},\]
\[V_a(k) = {\rm Pr}(a \ge k) = \alpha_{\rm G} \cdot \beta_{\rm G}^{\hspace{0.05cm}k-1} + \alpha_{\rm B} \cdot \beta_{\rm B}^{\hspace{0.05cm}k-1} \hspace{0.05cm}.\]

Hierbei sind folgende Hilfsgrößen verwendet:

\[u_{\rm GG} ={\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G}) \hspace{0.05cm},\hspace{0.2cm} {\it u}_{\rm GB} ={\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G}) \hspace{0.05cm},\]
\[u_{\rm BB} ={\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B}) \hspace{0.05cm},\hspace{0.29cm} {\it u}_{\rm BG} ={\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})\hspace{0.05cm}\]
\[\Rightarrow \hspace{0.3cm} \beta_{\rm G} =\frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2} \hspace{0.05cm},\]
\[\hspace{0.8cm}\beta_{\rm B} =\frac{u_{\rm GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.\]
\[x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}} \hspace{0.05cm},\hspace{0.2cm} x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}\]
\[\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm}, \hspace{0.2cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.\]

Die angegebenen Gleichungen sind das Ergebnis umfangreicher Matrizenoperationen.

Die obere Grafik zeigt die Fehlerabstandsverteilung (FAV) des GE–Modells (rote Kurve) in linearer und logarithmischer Darstellung für die Parameter

$${\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) = 0.1 \hspace{0.05cm},\hspace{0.5cm}{\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) = 0.01 \hspace{0.05cm},\hspace{0.5cm}p_{\rm G} = 0.001, \hspace{0.5cm}p_{\rm B} = 0.4.$$

Zum Vergleich ist als blaue Kurve auch der entsprechende  $V_a(k)$–Verlauf für das BSC–Modell mit der gleichen mittleren Fehlerwahrscheinlichkeit  $p_{\rm M} = 4.5\%$  eingezeichnet.

Fehlerkorrelationsfunktion des GE–Modells


Für die  Fehlerkorrelationsfunktion  (FKF) des GE–Modells mit

  • der mittleren Fehlerwahrscheinlichkeit  $p_{\rm M}$,
  • den Übergangswahrscheinlichkeiten  ${\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )$ und ${\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B )$  sowie
  • den Fehlerwahrscheinlichkeiten  $p_{\rm G}$  und  $p_{\rm B}$  in den beiden Zuständen  $\rm G$  und  $\rm B$


ergibt sich nach umfangreichen Matrizenoperationen der relativ einfache Ausdruck

\[\varphi_{e}(k) = {\rm E}\big[e_\nu \cdot e_{\nu +k}\big] = \left\{ \begin{array}{c} p_{\rm M} \\ p_{\rm M}^2 + (p_{\rm B} - p_{\rm M}) (p_{\rm M} - p_{\rm G}) [1 - {\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )- {\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B )]^k \end{array} \right.\quad \begin{array}{*{1}c} f{\rm \ddot{u}r }\hspace{0.15cm}k = 0 \hspace{0.05cm}, \\ f{\rm \ddot{u}r }\hspace{0.15cm} k > 0 \hspace{0.05cm}.\\ \end{array}\]

Beim GE–Modell muss  $\varphi_{e}(k)$  stets nach dieser Gleichung berechnet werden. Der nur für „erneuernde Modelle” gültige iterative Berechnungsalgorithmus

$$\varphi_{e}(k) = \sum_{\kappa = 1}^{k} {\rm Pr}(a = \kappa) \cdot \varphi_{e}(k - \kappa) $$

kann hier nicht angewendet werden, da das GE–Modell nicht erneuernd ist   ⇒   Die Fehlerabstände sind hier nicht statistisch voneinander unabhängig.

Fehlerkorrelationsfunktion von „GE” (Kreise) und „BSC” (Kreuze)

In der Grafik ist ein beispielhafter FKF–Verlauf des GE–Modells mit roten Kreisen markiert eingetragen. Man erkennt aus dieser Darstellung:

  • Während beim gedächtnislosen Kanal (BSC–Modell, blaue Kurve) alle FKF–Werte  $\varphi_{e}(k \ne 0)= p_{\rm M}^2$  sind, nähern sich die FKF–Werte beim Bündelfehlerkanal diesem Endwert deutlich langsamer an.
  • Beim Übergang von  $k = 0$  nach  $k = 1$  tritt eine gewisse Unstetigkeit auf. Während  $\varphi_{e}(k = 0)= p_{\rm M}$  ist, ergibt sich mit der für  $k > 0$  gültigen zweiten Gleichung für  $k = 0$  folgender extrapolierter Wert:
\[\varphi_{e0} = p_{\rm M}^2 + (p_{\rm B} - p_{\rm M}) \cdot (p_{\rm M} - p_{\rm G})\hspace{0.05cm}.\]
  • Ein quantitatives Maß für die Länge der statistischen Bindungen ist die Korrelationsdauer  $D_{\rm K}$, die allgemein als die Breite eines flächengleichen Rechtecks mit der Höhe  $\varphi_{e0} - p_{\rm M}^2$  definiert ist:
\[D_{\rm K} = \frac{1}{\varphi_{e0} - p_{\rm M}^2} \cdot \sum_{k = 1 }^{\infty}\hspace{0.1cm} \big[\varphi_{e}(k) - p_{\rm M}^2\big ]\hspace{0.05cm}.\]

$\text{Fazit:}$  Beim Gilbert–Elliott–Modell erhält man hier die  Korrelationsdauer  den einfachen, analytisch angebbaren Ausdruck

\[D_{\rm K} =\frac{1}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B ) + {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G )}-1 \hspace{0.05cm}.\]
  • $D_{\rm K}$  ist umso größer, je kleiner  ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G )$  und  ${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$  sind, also dann, wenn Zustandswechsel selten auftreten.
  • Für das BSC–Modell   ⇒   $p_{\rm B}= p_{\rm G} = p_{\rm M}$   ⇒   $D_{\rm K} = 0$ ist diese Gleichung nicht anwendbar.


Kanalmodell nach McCullough


Der wesentliche Nachteil des GE–Modells ist, dass damit eine Fehlerabstandssimulation nicht möglich ist. Wie in der  Aufgabe 5.5  herausgearbeitet wird, hat diese gegenüber der symbolweisen Generierung der Fehlerfolge  $\langle e_\nu \rangle$  große Vorteile hinsichtlich Rechengeschwindigkeit und Speicherbedarf.

McCullough  [McC68][4]  hat das drei Jahre zuvor von Gilbert und Elliott entwickelte Modell dahingehend modifiziert, dass eine Fehlerabstandssimulation in den beiden Zustände „GOOD” und „BAD” jeweils für sich anwendbar ist. Die Grafik zeigt unten das Modell von McCullough, im Folgenden als  MC–Modell  bezeichnet, während oben das GE–Modell nach Umbenennung der Übergangswahrscheinlichkeiten   ⇒   ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$,  ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$,  usw. dargestellt ist.

Kanalmodelle nach Gilbert–Elliott (oben) und McCullough (unten)

Zwischen den beiden Modellen bestehen viele Gemeinsamkeiten und einige wenige Unterschiede:

  • Das McCullough–Kanalmodell beruht wie das Gilbert–Elliott–Modell auf einem Markovprozess erster Ordnung  mit den beiden Zuständen „GOOD”  $(\rm G)$  und „BAD”  $(\rm B)$. Hinsichtlich der Modellstruktur ist kein Unterschied feststellbar.
  • Der wesentliche Unterschied zum GE–Modell besteht darin, dass ein Zustandswechsel zwischen „GOOD” und „BAD” jeweils nur nach einem Fehler – also einer „$1$” in der Fehlerfolge – möglich ist. Dies ermöglicht eine Fehlerabstandssimulation.
  • Die vier frei wählbaren GE–Parameter  $p_{\rm G}$,  $p_{\rm B}$,  ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$  und  ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$  können – wie auf der nächsten Seite gezeigt – so in die MC–Parameter  $q_{\rm G}$,  $q_{\rm B}$,  ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$  und  ${\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$  umgerechnet werden, dass eine in ihren statistischen Eigenschaften gleiche Fehlerfolge wie beim GE–Modell erzeugt wird.
  • Beispielsweise bezeichnet  ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$  die Übergangswahrscheinlichkeit vom Zustand „GOOD” in den Zustand „BAD” unter der Voraussetzung, dass im Zustand „GOOD” gerade ein Fehler aufgetreten ist. Der GE–Parameter  ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$  kennzeichnet diese Übergangswahrscheinlichkeit ohne diese Zusatzbedingung.


$\text{Beispiel 2:}$  Die Abbildung zeigt oben eine beispielhafte Fehlerfolge des GE–Modells mit den Parametern  $p_{\rm G} = 0.01$,  $p_{\rm B} = 0.4$,  ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01$,  ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1$. Man erkennt, dass im Gegensatz zur unteren MC–Folge ein Zustandswechsel von „GOOD” (ohne Hinterlegung) nach „BAD” (graue Hinterlegung) und umgekehrt zu jedem Zeitpunkt  $\nu$  möglich ist – also auch dann, wenn  $e_\nu = 0$  ist.

Fehlerfolge des GE–Modells (oben) und des MC–Modells (unten)


$\text{Fazit:}$  Die Zusammenhänge zwischen den beiden Modellen lassen sich wie folgt zusammenfassen:

  • Bei der im Beispiel unten dargestellten Fehlerfolge des McCullough–Modells ist im Gegensatz zur oberen Folge ein Zustandswechsel zum Zeitpunkt  $\nu$  nur bei  $e_\nu = 1$  möglich. Der letzte Fehlerwert vor einer grauen Hinterlegung ist stets eine „$1$”.
  • Dies hat den Vorteil, dass man bei einer Fehlerfolgensimulation die Fehler nicht „step–by–step” generieren muss, sondern die schnellere Fehlerabstandssimulation nutzen kann   ⇒   siehe  Aufgabe 5.5.
  • Die Parameter des GE–Modells kann man derart in entsprechende MC–Parameter umrechnen, dass die beiden Modelle äquivalent sind   ⇒   siehe nächste Seite. Das bedeutet:   Die MC–Fehlerfolge hat exakt gleiche statistische Eigenschaften  wie die GE–Fehlerfolge. Es bedeutet aber nicht, dass beide Fehlerfolgen identisch sind.



Umrechnung der GE–Parameter in die MC–Parameter


Die Parameter des äquivalenten MC–Modells sind aus den GE–Parametern wie folgt berechenbar:

\[q_{\rm G} =1-\beta_{\rm G}\hspace{0.05cm}, \hspace{0.9cm}q_{\rm B} = 1-\beta_{\rm B}\hspace{0.05cm}, \hspace{0.9cm}q(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) =\frac{\alpha_{\rm B} \cdot[{\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) + {\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B )]}{\alpha_{\rm G} \cdot q_{\rm B} + \alpha_{\rm B} \cdot q_{\rm G}} \hspace{0.05cm}, \hspace{0.9cm} q(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) = \frac{\alpha_{\rm G}}{\alpha_{\rm B}} \cdot q(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )\hspace{0.05cm}.\]

Hierbei sind wieder die folgenden Hilfsgrößen verwendet:

\[u_{\rm GG} = {\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G}) \hspace{0.05cm},\hspace{0.2cm} {\it u}_{\rm GB} ={\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G}) \hspace{0.05cm},\]
\[u_{\rm BB} = {\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B}) \hspace{0.05cm},\hspace{0.29cm} {\it u}_{\rm BG} ={\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})\]
\[\Rightarrow \hspace{0.3cm} \beta_{\rm G} = \frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2} \hspace{0.05cm}, \hspace{0.9cm}\beta_{\rm B} \hspace{-0.1cm} = \hspace{-0.1cm}\frac{u_{\rm GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.\]
\[x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}} \hspace{0.05cm},\hspace{0.2cm} x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}} \Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm}, \hspace{0.9cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.\]

$\text{Beispiel 3:}$  Wie im  $\text{Beispiel 2}$  gelte für die GE–Parameter:

$$p_{\rm G} = 0.01, \hspace{0.5cm} p_{\rm B} = 0.4, \hspace{0.5cm} p(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01, \hspace{0.5cm} {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1.$$

Bei Anwendung obiger Gleichungen erhält man dann für die äquivalenten MC–Parameter:

$$q_{\rm G} = 0.0186, \hspace{0.5cm} q_{\rm B} = 0.4613, \hspace{0.5cm} q(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.3602, \hspace{0.5cm} {\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.2240.$$
  • Vergleicht man im $\text{Beispiel 2}$ die rote Fehlerfolge (GE, Zustandswechsel ist immer möglich) mit der blauen Folge (äquivalentes MC, Zustandswechsel nur bei  $e_\nu = 1$), so erkennt man durchaus gravierende Unterschiede.
  • Aber die blaue Fehlerfolge des äquivalenten McCullough-Modells besitzt exakt gleiche statistische Eigenschaften wie die rote Fehlerfolge des Gilbert–Elliott–Modells.


Die Umrechnung der GE– in die MC–Parameter wird in der  Aufgabe 5.7  an einem einfachen Beispiel verdeutlicht. In der  Aufgabe 5.7Z  wird weiter gezeigt, wie die mittlere Fehlerwahrscheinlichkeit, die Fehlerabstandsverteilung, die Fehlerkorrelationsfunktion und die Korrelationsdauer des MC–Modells direkt aus den  $q$–Parametern ermittelt werden können.

Bündelfehlerkanalmodell nach Wilhelm


Dieses Modell geht auf  Claus Wilhelm  zurück und wurde ab Mitte der 1960er Jahre aus empirischen Messungen zeitlicher Folgen von Bitfehlern entwickelt. Es beruht auf Tausenden von Messstunden in Übertragungskanälen ab  $\text{200 bit/s}$  mit analogem Modem bis hin zu  $\text{2.048 Mbit/s}$  über  ISDN. Ebenso wurden Seefunkkanäle bis zu  $7500$  Kilometern im Kurzwellenbereich vermessen.

Beispielhafte Funktionsverläufe  $p_{\rm B}(n)$

Aufgezeichnet wurden Blöcke der Länge  $n$. Daraus wurde die jeweilige Blockfehlerrate  $h_{\rm B}(n)$  ermittelt.

  • Ein Blockfehler liegt bereits dann vor, wenn auch nur eines der  $n$  Symbole verfälscht wurde.
  • Wohl wissend, dass die Blockfehlerrate  $h_{\rm B}(n)$  nur für  $n \to \infty$  exakt mit der Blockfehlerwahrscheinlichkeit  $p_{\rm B}$  übereinstimmt, setzen wir bei der folgenden Beschreibung  $p_{\rm B}(n) \approx h_{\rm B}(n)$.


Bei einer Vielzahl von Messungen wurde immer wieder die Tatsache bestätigt, dass der Verlauf  $p_{\rm B}(n)$  in doppelt–logarithmischer Darstellung im unteren Bereich lineare Anstiege aufweisen (siehe Grafik). Es gilt also für  $n \le n^\star$:

\[{\rm lg} \hspace{0.15cm}p_{\rm B}(n) = {\rm lg} \hspace{0.15cm}p_{\rm S} + \alpha \cdot {\rm lg} \hspace{0.15cm}n\hspace{0.3cm} \Rightarrow \hspace{0.3cm} p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}\hspace{0.05cm}.\]

Hierbei bezeichnet  $p_{\rm S} = p_{\rm B}(n=1)$  die mittlere Symbolfehlerwahrscheinlichkeit und die empirisch gefundenen Werte von  $\alpha$  liegen zwischen  $0.5$  und  $0.95$. Für  $1-\alpha$  wird auch die Bezeichnung Bündelungsfaktor  verwendet.

Beachten Sie bitte, dass  $p_{\rm B}(n)$  die Blockfehlerwahrscheinlichkeit angibt. In anderem Zusammenhang bezeichnet in unserem Lerntutorial  $p_{\rm B}$  manchmal auch die Bitfehlerwahrscheinlichkeit.

$\text{Beispiel 4:}$  Beim BSC–Modell gilt für den Verlauf der Blockfehlerwahrscheinlichkeit:

\[p_{\rm B}(n) =1 -(1 -p_{\rm S})^n \approx n \cdot p_{\rm S}\hspace{0.05cm}.\]

Daraus folgt  $\alpha = 1$  bzw. der Bündelungsfaktor  $1-\alpha = 0$. In diesem Fall (und nur in diesem) ergibt sich auch bei nicht–logarithmischer Darstellung ein linearer Verlauf.

  • Zu beachten ist, dass obige Näherung nur für  $p_{\rm S} \ll 1$  und nicht allzu großes  $n$  zulässig ist, da sonst die Näherung  $(1-p_{\rm S})^n \approx1 - n \cdot p_{\rm S}$  nicht anwendbar ist.
  • Das heißt aber auch, dass die oben angegebene Gleichung auch nur für einen unteren Bereich $($für  $n < n^\star)$  gilt.
  • Ansonsten würde sich für  $n \to \infty$  eine unendlich große Blockfehlerwahrscheinlichkeit ergeben.


$\text{Definition:}$  Für die aus Messungen empirisch bestimmte Funktion  $p_{\rm B}(n)$  muss nun die Fehlerabstandsverteilung gefunden werden, aus der der Verlauf für  $n > n^\star$  extrapoliert werden kann, der die folgende Nebenbedingung erfüllt:

\[\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty} p_{\rm B}(n) = 1 .\]

Wir bezeichnen diesen Ansatz als Wilhelm–Modell. Da das Gedächtnis nur bis zum letzten Symbolfehler reicht, ist dieses Modell erneuernd (englisch: Renewal Model).


Fehlerabstandsbetrachtung zum Wilhelm–Modell


Wir betrachten nun die  Fehlerabstände. Eine Fehlerfolge  $\langle e_\nu \rangle$  kann in äquivalenter Weise durch die Fehlerabstandsfolge  $\langle a_{\nu\hspace{0.06cm}'} \rangle$  dargestellt werden, wie in der folgenden Grafik gezeigt. Man erkennt:

Fehlerfolge und Fehlerabstandsfolge
  • Die Fehlerfolge  $\text{...}\rm 1001\text{...}$  wird durch  $a= 3$  ausgedrückt.
  • Entsprechend bezeichnet der Fehlerabstand  $a= 1$  die Fehlerfolge  $\text{...}\rm 11\text{...}$.
  • Die verschiedenen Indizes  $\nu$  und  $\nu\hspace{0.06cm}'$  berücksichtigen, dass die beiden Folgen nicht synchron laufen.


Mit den Wahrscheinlichkeiten  $p_a(k) = {\rm Pr}(a= k)$  für die einzelnen Fehlerabstände  $k$  und der mittleren (Symbol–)Fehlerwahrscheinlichkeit  $p_{\rm S}$  gelten folgende Definitionen für

  • die Fehlerabstandsverteilung (FAV):
\[ V_a(k) = {\rm Pr}(a \ge k)= \sum_{\kappa = k}^{\infty}p_a(\kappa) \hspace{0.05cm},\]
  • den mittleren Fehlerabstand ${\rm E}\big[a\big]$:
\[ V_a(k) = {\rm E}\big[a\big] = \sum_{k = 1}^{\infty} k \cdot p_a(k) = {1}/{p_{\rm S}}\hspace{0.05cm}.\]

$\text{Beispiel 5:}$  Wir betrachten einen Block mit  $n$  Bit, beginnend bei der Bitposition  $\nu + 1$.

Zur Herleitung des Wilhelm–Modells
  • Ein Blockfehler tritt immer dann auf, wenn ein Bit an den Positionen  $\nu + 1$, ... , $\nu + n$  verfälscht ist.
  • Die Verfälschungswahrscheinlichkeiten werden in der Grafik durch die Fehlerabstandsverteilung  ${V_a}\hspace{0.06cm}'(k)$  ausgedrückt.
  • Irgendwo vor dem Block der Länge  $n = 3$  befindet sich der letzte Fehler, aber mindestens im Abstand  $k$  vom ersten Fehler im Block entfernt.
  • Also ist der Abstand gleich oder größer als  $k$, was genau der Wahrscheinlichkeit  ${V_a}'(k)$  entspricht.
  • Das Hochkomma soll anzeigen, dass später noch eine Korrektur vorzunehmen ist, um von der empirisch gefundenen FAV zur richtigen Funktion  ${V_a}(k)$  zu kommen.


Für die Blockfehlerwahrscheinlichkeit  $p_{\rm B}(n)$  haben wir nun verschiedene Gleichungen.

  • Eine erste Gleichung stellt den Zusammenhang zwischen  $p_{\rm B}(n)$  und der (approximativen) Fehlerabstandsverteilung  ${V_a}'(k)$  her:
\[(1)\hspace{0.4cm} p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k) \hspace{0.05cm}, \]
  • Eine zweite Gleichung liefert unsere empirische Untersuchung zu Beginn dieses Abschnitts:
\[(2)\hspace{0.4cm} p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}\]
  • Die dritte Gleichung ergibt sich aus Gleichsetzen von $(1)$ und $(2)$:
\[(3)\hspace{0.4cm} \sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k) = n^{\alpha} \hspace{0.05cm}. \]

Durch sukzessives Einsetzen von  $n = 1, 2, 3,$ ... in diese Gleichung erhalten wir mit  ${V_a}'(k = 1) = 1$:

\[V_a\hspace{0.05cm}'(1) = 1^{\alpha} \hspace{0.05cm},\hspace{0.8cm} V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2) =2^{\alpha} \hspace{0.05cm}, \hspace{0.8cm}V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2) + V_a\hspace{0.05cm}'(3) = 3^{\alpha} \hspace{0.35cm}\Rightarrow \hspace{0.3cm} V_a\hspace{0.05cm}'(k) = k^{\alpha}-(k-1)^{\alpha} \hspace{0.05cm}.\]

Die aus empirischen Daten gewonnenen Koeffizienten  ${V_a}'(k)$  erfüllen jedoch nicht notwendigerweise die Normierungsbedingung.

Um den Sachverhalt zu korrigieren, verwendet Wilhelm folgenden Ansatz:

\[V_a\hspace{0.05cm}(k) = V_a\hspace{0.05cm}'(k) \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.3cm}\Rightarrow \hspace{0.3cm} V_a\hspace{0.05cm}(k) = \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.05cm}.\]

Wilhelm bezeichnet diese Darstellung als  L–Modell, siehe  [Wil11][5]. Die Konstante  $\beta$  ist in Abhängigkeit

  • der Symbolfehlerwahrscheinlichkeit  $p_{\rm S}$, und
  • des empirisch gefundenen Exponenten  $\alpha$   ⇒   Bündelungsfaktor  $1- \alpha$


so zu bestimmen, dass die Blockfehlerwahrscheinlichkeit bei unendlich großer Blocklänge gleich  $1$  wird:

\[\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty} p_B(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k) = p_{\rm S} \cdot \sum_{k = 1}^{n} \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)} =1 \hspace{0.3cm} \Rightarrow \hspace{0.3cm} \sum_{k = 1}^{\infty} \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)} = {1}/{p_{\rm S}} \hspace{0.05cm}.\]

Um  $\beta$  zu bestimmen, wird die  erzeugende Funktion  von  ${V_a}(k)$  verwendet, die wir mit  ${V_a}(z)$  benennen:

\[V_a\hspace{0.05cm}(z) = \sum_{k = 1}^{\infty}V_a\hspace{0.05cm}(k) \cdot z^k = \sum_{k = 1}^{n} \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)} \cdot z^k \hspace{0.05cm}.\]

In  [Wil11][5] wird näherungsweise  $V_a\hspace{0.05cm}(z) = 1/{\left (1- {\rm e}^{- \beta }\cdot z \right )^\alpha} $  hergeleitet. Aus der Gleichung für den mittleren Fehlerabstand folgt:

\[ {\rm E}\big[a\big] = \sum_{k = 1}^{\infty} k \cdot p_a(k) = \sum_{k = 1}^{\infty} V_a(k) = \sum_{k = 1}^{\infty} V_a(k) \cdot 1^k = V_a(z=1) = 1/p_{\rm S}\]
\[ \Rightarrow \hspace{0.3cm}{p_{\rm S}} = \big [V_a(z=1)\big]^{-1}= \big [1- {\rm e}^{- \beta }\cdot 1\big]^{\alpha}\hspace{0.3cm} \Rightarrow \hspace{0.3cm} {\rm e}^{- \beta } =1 - {p_{\rm S}}^{1/\alpha}\hspace{0.05cm}.\]

Numerischer Vergleich von BSC–Modell und Wilhelm–Modell


$\text{Fazit:}$  Fassen wir dieses Zwischenergebnis zusammen. Das  L–Modell  nach Wilhelm beschreibt die Fehlerabstandsverteilung in der Form

\[V_a\hspace{0.05cm}(k) = \big [k^{\alpha}-(k-1)^{\alpha}\big ] \cdot \big [ 1 - {p_{\rm S}^{1/\alpha} }\big ]^{k-1} \hspace{0.05cm}.\]


Dieses Modell soll nun anhand beispielhafter numerischer Ergebnisse erläutert werden.

$\text{Beispiel 6:}$  Wir gehen zunächst vom  BSC–Modell  aus.

  • Die Verfälschungswahrscheinlichkeit setzen wir aus Darstellungsgründen sehr hoch auf  $p_{\rm S} = 0.2$.
  • In der zweiten Zeile der nachfolgenden Tabelle ist dessen Fehlerabstandsverteilung  ${V_a}(k) = {\rm Pr}(a \ge k)$  für  $k \le10$ eingetragen.
Kenngrößen des BSC–Modells für  $p_{\rm S} = 0.2$

Das Wilhelm–Modell mit  $p_{\rm S} = 0.2$  und  $\alpha = 1$  weist genau die gleiche Fehlerabstandsverteilung ${V_a}(k)$ wie das entsprechende  BSC–Modell  auf. Dies zeigt auch die Rechnung. Mit  $\alpha = 1$  erhält man aus der Gleichung auf der letzten Seite:

\[V_a\hspace{0.05cm}(k) = \big [k^{\alpha}-(k-1)^{\alpha}\big ] \cdot \big [ 1 - {p_{\rm S}^{1/\alpha} }\big ]^{k-1} = (1 - p_{\rm S} )^{k-1} \hspace{0.05cm}.\]

Damit besitzen beide Modelle entsprechend den Zeilen 3 und 4 auch

  • gleiche Wahrscheinlichkeiten  ${\rm Pr}(a = k)= {V_a}(k-1) - {V_a}(k)$  der Fehlerabstände,
  • gleiche Blockfehlerwahrscheinlichkeiten  $ p_{\rm B}(n)$.

Im Hinblick auf das folgende  $\text{Beispiel 7}$  mit  $\alpha \ne 1$  ist nochmals besonders zu erwähnen:

  • Die Blockfehlerwahrscheinlichkeiten  $ p_{\rm B}(n)$  des Wilhelm–Modells ergeben sich grundsätzlich aus der Fehlerabstandsverteilung  ${V_a}(k)$  entsprechend der Gleichung
\[ p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k) \hspace{0.15cm}\Rightarrow \hspace{0.15cm} p_{\rm B}( 1) = 0.2 \cdot 1 = 0.2 \hspace{0.05cm}, \hspace{0.5cm}p_{\rm B}(2) = 0.2 \cdot (1+0.8) = 0.36 \hspace{0.05cm}.\]
  • Nur im Sonderfall  $\alpha = 1$   ⇒   BSC–Modell kann  $ p_{\rm B}(n)$  auch durch Summation über die Fehlerabstandswahrscheinlichkeiten  ${\rm Pr}(a=k)$  ermittelt werden:
\[ p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} {\rm Pr}(a=k) \hspace{0.15cm}\Rightarrow \hspace{0.15cm} p_{\rm B}( 1) = 0.2 \hspace{0.05cm}, \hspace{0.5cm}p_{\rm B}(2) = 0.2+ 0.16 = 0.36 \hspace{0.05cm}.\]


$\text{Beispiel 7:}$  Wir betrachten nun einen Kanal mit Bündelfehlercharakteristik.

  • Die Grafik zeigt als grüne Kreise die Ergebnisse für das Wilhelm–L–Modell mit  $\alpha = 0.7$.
  • Die rote Vergleichskurve gilt für  $\alpha = 1$  (bzw. für den BSC–Kanal) bei gleicher mittlerer Symbolfehlerwahrscheinlichkeit  $p_{\rm S} = 0.2$.
  • Unten rechts sind einige interessante Zahlenwerte angegeben.
Ergebnisse des Wilhelm–L–Modells mit  $\alpha = 0.7$ und  $p_{\rm S} = 0.2$

Man erkennt aus diesen Darstellungen:

  • Der Verlauf der Blockfehlerfehlerwahrscheinlichkeit beginnt jeweils mit  $p_{\rm B}(n = 1) = p_{\rm S} = 0.2$, sowohl bei statistisch unabhängigen Fehlern (BSC) als auch bei Bündelfehlern (Wilhelm).
  • Beim Bündelfehlerkanal ist  ${\rm Pr}(a=1)= 0.438$  deutlich größer als beim vergleichbaren BSC   ⇒   ${\rm Pr}(a=1)= 0.2$. Zudem erkennt man einen abgeknickten Verlauf im unteren Bereich.
  • Der mittlere Fehlerabstand  ${\rm E}\big [a \big ] = 1/p_{\rm S} = 5$  ist aber bei gleicher Symbolfehlerwahrscheinlichkeit ebenfalls identisch. Der große Ausreiser bei  $k=1$  wird durch kleinere Wahrscheinlichkeiten für  $k=2$,  $k=3$  ... ausgeglichen, sowie durch die Tatsache, dass für große  $k$  die grünen Kreise – wenn auch nur minimal – oberhalb der roten Vergleichskurve liegen.
  • Das wichtigste Ergebnis ist aber, dass die Blockfehlerfehlerwahrscheinlichkeit für  $n > 1$  beim Bündelfehlerkanal kleiner ist als beim vergleichbaren BSC–Modell, zum Beispiel:   $p_{\rm B}(n = 20) = 0.859$.



Fehlerabstandsbetrachtung nach dem Wilhelm–A–Modell


Wilhelm hat aus der oben angegebenen  erzeugenden Funktion  $V_a(z)$  eine weitere Näherung entwickelt, die er als das  A–Modell  bezeichnet. Die Näherung basiert auf einer Taylorreihenentwicklung.

$\text{Definition:}$  Das  A–Modell  nach Wilhelm beschreibt die angenäherte Fehlerabstandsverteilung in der Form

\[V_a\hspace{0.05cm}(k) = \frac {1 \cdot \alpha \cdot (1+\alpha) \cdot \hspace{0.05cm} ... \hspace{0.05cm}\cdot (k-2+\alpha) }{(k-1)\hspace{0.05cm}!}\cdot \left [ 1 - {p_{\rm S}^{1/\alpha} }\right ]^{k-1} \hspace{0.05cm}.\]
  • Insbesondere ergibt sich  $V_a(k = 1) = 1$  und  $V_a(k = 2)= \alpha \cdot (1 - p_{\rm S}^{1/\alpha})$.
  • Hierbei ist zu berücksichtigen, dass der Zähler des Vorfaktors aus  $k$  Faktoren besteht. Für  $k = 1$  ergibt sich dieser Vorfaktor demzufolge zu $1$.


Nun vergleichen wir die Unterschiede der beiden Wilhelm–Modelle (L bzw. A) hinsichtlich resultierender Blockfehlerwahrscheinlichkeit.

Ergebnisse des Wilhelm–Modells für  $p_{\rm S} = 0.01$  und einige  $\alpha$

$\text{Beispiel 8:}$  Nebenstehende Grafik zeigt den Verlauf der Blockfehlerwahrscheinlichkeiten  $p_{\rm B}(n)$  für drei verschiedene  $\alpha$–Werte, erkennbar an den Farben

  • Rot:       $\alpha = 1$   ⇒   BSC–Modell,
  • Blau:     $\alpha = 0.95$  ⇒   schwache Bündelung,
  • Grün:    $\alpha = 0.7$   ⇒   starke Bündelung.

Die durchgezogenen Linien gelten für das A–Modell und die gestrichelten für das L–Modell. Die im Bild angegebenen Zahlenwerte für  $p_{\rm B}(n = 100)$  beziehen sich ebenfalls auf das A–Modell.

Für $\alpha = 1$ geht sowohl das A–Modell als auch das L–Modell in das BSC–Modell (rote Kurve) über.

Desweiteren ist anzumerken:

  • Die Symbolfehlerwahrscheinlichkeit    $p_{\rm S} = 0.01$   ⇒   ${\rm E}\big[a \big ] = 100$    ist hier (einigermaßen) realistisch angenommen. Alle Kurven starten so bei    $p_{\rm B}(n=1) = 0.01$   ⇒   gelber Punkt.
  • Der Unterschied zwischen zwei gleichfarbigen Kurven ist gering (bei starker Bündelung etwas größer), wobei die durchgezogene Kurve stets oberhalb der gestrichelten Kurve liegt.
  • Auch dieses Beispiel zeigt:     Je stärker die Bündelung $($kleineres  $\alpha)$, desto kleiner ist die Blockfehlerwahrscheinlichkeit    $p_{\rm B}(n)$. Dies gilt allerdings nur, wenn man wie hier von einer konstanten Symbolfehlerwahrscheinlichkeit    $p_{\rm S}$    ausgeht.
  • Ein (dürftiger) Erklärungsversuch:     Nehmen wir an, dass bei BSC mit sehr kleinem  $p_{\rm S}$  jeder Blockfehler von genau einem Symbolfehler herrührt, dann gibt es bei gleicher Symbolfehleranzahl weniger Blockfehler, wenn zwei Symbolfehler in einen Block fallen (Bündelung).
  • Noch ein (passenderes?) Beispiel aus dem täglichen Leben. Man kann eine Straße bei konstantem Verkehrsaufkommen leichter überqueren, wenn die Fahrzeuge „irgendwie gebündelt” kommen.


Fehlerkorrelationsfunktion des Wilhelm–A–Modells


Eine weitere Beschreibungsform der digitalen Kanalmodelle ist neben der Fehlerabstandsverteilung  $V_a(k)$  die  Fehlerkorrelationsfunktion  $\varphi_{e}(k)$  – abgekürzt FKF. Wir gehen von der binären Fehlerfolge  $\langle e_\nu \rangle$  mit  $e_\nu \in \{0, 1\}$  aus, wobei hinsichtlich des $\nu$–ten Bits

  • $e_\nu = 0$  eine richtige Übertragung bezeichnet, und
  • $e_\nu = 1$  einen Symbolfehler (Bitfehler).


$\text{Definition:}$  Die  Fehlerkorrelationsfunktion  $\varphi_{e}(k)$  gibt die (zeitdiskrete)  Autokorrelationsfunktion  der ebenfalls zeitdiskreten Zufallsgröße  $e$  an.

\[\varphi_{e}(k) = {\rm E}\big[e_{\nu} \cdot e_{\nu + k}\big] = \overline{e_{\nu} \cdot e_{\nu + k} }\hspace{0.05cm}.\]

Die überstreichende Linie in der rechten Gleichung kennzeichnet die Zeitmittelung.


Der Fehlerkorrelationswert  $\varphi_{e}(k)$  liefert statistische Aussagen bezüglich zwei um  $k$  auseinander liegender Folgenelemente, zum Beispiel über  $e_{\nu}$  und  $e_{\nu +k}$. Die dazwischen liegenden Elemente  $e_{\nu +1}$, ... , $e_{\nu +k-1}$  beeinflussen dagegen den  $\varphi_{e}(k)$–Wert nicht.

$\text{Ohne Beweis:}$  Die Fehlerkorrelationsfunktion des Wilhelm–A–Modells kann wie folgt angenähert werden:

\[\varphi_e\hspace{0.05cm}(k) = p_{\rm S} \hspace{-0.03cm}\cdot \hspace{-0.03cm} \left [ 1 \hspace{-0.03cm}-\hspace{-0.03cm} \frac{\alpha}{1\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C \hspace{-0.03cm}-\hspace{-0.03cm} \frac{\alpha \cdot (1\hspace{-0.03cm}-\hspace{-0.03cm} \alpha)}{2\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^2 \hspace{-0.03cm}-\hspace{-0.03cm} \hspace{0.05cm} \text{...} \hspace{0.05cm}\hspace{-0.03cm}-\hspace{-0.03cm} \frac {\alpha \hspace{-0.03cm}\cdot \hspace{-0.03cm} (1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha) \hspace{-0.03cm}\cdot \hspace{-0.03cm} \hspace{0.05cm} \text{...} \hspace{0.05cm} \hspace{-0.03cm}\cdot \hspace{-0.03cm} (k\hspace{-0.03cm}-\hspace{-0.03cm}1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha) }{k\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^k \right ] \]

Zur Abkürzung ist  $C = (1-p_{\rm S})^{1/\alpha}$  verwendet. Auf die Herleitung wird hier verzichtet.


Nachfolgend werden die Eigenschaften der Fehlerkorrelationsfunktion an einem Beispiel aufgezeigt.

Fehlerkorrelationsfunktionen des Wilhelm–Modells

$\text{Beispiel 9:}$  Wie im  $\text{Beispiel 8}$  gelte  $p_{\rm S} = 0.01$. Die hier dargestellten Fehlerkorrelationsfunktionen stehen wieder für

  • Grün:    $\alpha = 0.7$   ⇒   starke Bündelung.
  • Blau:     $\alpha = 0.95$  ⇒   schwache Bündelung,
  • Rot:       $\alpha = 1$   ⇒   BSC–Modell,


Die folgenden Aussagen lassen sich weitgehend verallgemeinern, siehe auch  GE–Modell:

  • Der FKF-Wert an der Stelle  $k = 0$  ist bei allen Kanälen gleich  $p_{\rm S} = 10^{-2}$  (markiert durch den Kreis mit grauer Füllung) und der Grenzwert für  $k \to \infty$  liegt stets bei  $p_{\rm S}^2 = 10^{-4}$.
  • Dieser Endwert wird beim BSC–Modell bereits bei  $k = 1$  erreicht (rot gefüllte Markierung). Hier kann die FKF also nur die beiden Werte  $p_{\rm S}$  und  $p_{\rm S}^2$  annehmen.
  • Auch für für  $\alpha < 1$  (blaue und grüne Kurve) erkennt man einen Knick bei  $k = 1$. Danach verläuft die FKF monoton fallend. Der Abfall ist umso langsamer, je kleiner  $\alpha$  ist, also je gebündelter die Fehler auftreten.


Analyse von Fehlerstrukturen mit dem Wilhelm–A–Modell


Wilhelm hat sein Kanalmodell hauptsächlich deshalb entwickelt, um aus gemessenen Fehlerfolgen Rückschlüsse über die dabei auftretenden Fehler machen zu können. Aus der Vielzahl der Analysen in  [Wil11][5]  sollen hier nur einige wenige angeführt werden, wobei stets die Symbolfehlerwahrscheinlichkeit  $p_{\rm S} = 10^{-3}$  zugrunde liegt.

  • In den Grafiken gilt jeweils die rote Kurve für statistisch unabhängige Fehler $($BSC bzw.  $\alpha = 1)$,
  • die grüne Kurve für einen Bündelfehlerkanal mit  $\alpha = 0.7$. Zudem soll folgende Vereinbarung gelten:

$\text{Definition:}$  Ein  Fehlerburst  (oder kurz Burst) beginnt stets mit einem Symbolfehler und endet, wenn  $k_{\rm Burst}- 1$  fehlerfreie Symbole aufeinanderfolgen.

  • $k_{\rm Burst}$  bezeichnet den Burst–Endeparameter.
  • Das Burstgewicht   $G_{\rm Burst}$  entspricht der Anzahl aller Symbolfehler im Burst.
  • Bei einem Einzelfehler  gilt  $G_{\rm Burst}= 1$  und die Burstlänge (bestimmt durch den ersten und letzten Fehler) ist ebenfalls  $L_{\rm Burst}= 1$.


Einzelfehlerwahrscheinlichkeit in einem Block der Länge  $n$

$\text{Beispiel 10:}\ \text{Wahrscheinlichkeit }p_1\text{ eines Einzelfehlers in einer Probe der Länge} \ n$

Für den BSC–Kanal  $(\alpha = 1)$  gilt  $p_1 = n \cdot 0.001 \cdot 0.999^{n-1}$   ⇒   rote Kurve. Aufgrund der doppel–logarithmischen Darstellung ergibt sich mit diesen Zahlenwerten ein (nahezu) linearer Verlauf. Beim BSC–Modell treten also Einzelfehler in einer Probe der Länge  $n = 100$  mit etwa  $9\%$  Wahrscheinlichkeit auf.

Beim Bündelfehlerkanal mit  $\alpha = 0.7$  (grüne Kurve) beträgt die entsprechende Wahrscheinlichkeit nur etwa  $0.7\%$  und der Kurvenverlauf ist hier leicht gekrümmt.


Bei der folgenden Rechnung gehen wir zunächst von der Annahme aus, dass der Einzelfehler in der Probe der Länge  $n$  an der Position  $b$  auftritt:

  • Bei einem Einzelfehler müssen dann noch  $n-b$  fehlerfreie Symbole folgen. Nach Mittelung über die möglichen Fehlerpositionen  $b$  erhält man somit:
\[p_1 = p_{\rm S} \cdot \sum_{b = 1}^{n} \hspace{0.15cm}V_a (b) \cdot V_a (n+1-b) \hspace{0.05cm}.\]
  • Wegen der Ähnlichkeit mit der Signaldarstellung eines  Digitalen Filters  kann man die Summe als Faltung von  $V_a(b)$  mit sich selbst bezeichnen. Für die erzeugende Funktion  $V_a(z)$  wird aus der Faltung ein Produkt (bzw. wegen  $V_a(b) \star V_a(b)$  das Quadrat) und man erhält folgende Gleichung:
\[V_a(z=1) \cdot V_a(z=1) = \big [ V_a(z=1) \big ]^2 = {\big [ 1 -(1- {p_{\rm S} }^{1/\alpha})\big ]^{-2\alpha} } \hspace{0.05cm}.\]
\[p_1 = p_{\rm S} \cdot \frac{2\alpha \cdot (2\alpha+1) \cdot \hspace{0.05cm} \text{... } \hspace{0.05cm} \cdot (2\alpha+n-2)} {(n-1)!}\cdot (1- {p_{\rm S} }^{1/\alpha})^{n-1} \hspace{0.05cm}.\]


Mittlere Fehleranzahl im Burst der Länge  $k$

$\text{Beispiel 11:}\ \text{Mittlere Fehleranzahl } {\rm E}[G_{\rm Burst}] \text{ in einem Burst mit Endeparameter }k_{\rm Burst}$

Die mittlere Symbolfehlerwahrscheinlichkeit sei weiterhin  $p_{\rm S} = 10^{-3}$, also (relativ) klein.

(1)   Rote Kurve für den BSC–Kanal  (bzw.  $\alpha = 1)$:

  • Der Parameter  $k_{\rm Burst}= 10$  bedeutet beispielsweise, dass der Burst beendet ist, wenn nach einem Fehler neun fehlerfreie Symbole folgenden. Die Wahrscheinlichkeit für einen Fehlerabstand  $a \le 9$  ist bei kleinem  $p_{\rm S}$  $($hier:  $10^{-3})$  äußerst klein. Daraus folgt weiter, dass dann (fast) jeder Einzelfehler als ein „Burst” aufgefasst wird, und es gilt  ${\rm E}[G_{\rm Burst}] \approx 1.01$ .
  • Bei größerem Burst–Endeparameter  $k_{\rm Burst}$  nimmt auch die Wahrscheinlichkeit  ${\rm Pr}(a \le k_{\rm Burst})$  deutlich zu und es kommt zu „Bursts” mit mehr als einem Fehler. Wählt man beispielsweise  $k_{\rm Burst}= 100$, so beinhaltet ein „Burst” im Mittel  $1.1$  Symbolfehler.
  • Das bedeutet gleichzeitig, dass es auch beim BSC–Modell zu langen Fehlerbursts (entsprechend unserer Definition) kommen kann, wenn bei gegebenem  $p_{\rm S}$  der Burst–Endeparameter zu groß gewählt ist oder bei vorgegebenem  $k_{\rm Burst}$  die mittlere Fehlerwahrscheinlichkeit  $p_{\rm S}$  zu groß ist.


(2)   Grüne Kurve für den Wilhelm–Kanal mit  $\alpha = 0.7$:

Das hier angegebene Verfahren zur numerischen Bestimmung der mittleren Fehleranzahl  ${\rm E}[G_{\rm Burst}]$  eines Bursts kann unabhängig vom  $\alpha$–Wert angewendet werden. Man geht wie folgt vor:

  • Entsprechend den Fehlerabstandswahrscheinlichkeiten  ${\rm Pr}(a=k)$  generiert man eine Fehlerfolge $e_1$,  $e_2$,  ... , $e_i$,  ...  mit den Fehlerabständen  $a_1$,  $a_2$,  ... , $a_i$,  ...
  • Ist ein Fehlerabstand  $a_i \ge k_{\rm Burst}$, so markiert dieser das Ende eines Bursts. Ein solches Ereignis tritt mit der Wahrscheinlichkeit  ${\rm Pr}(a \ge k_{\rm Burst}) = V_a(k_{\rm Burst} )$  ein.
  • Wir zählen solche Ereignisse „$a_i \ge k_{\rm Burst}$” im gesamten Block der Länge  $n$. Deren Anzahl ist gleichzeitig die Anzahl  $N_{\rm Burst}$  der Bursts im Block.
  • Gleichzeitig gilt die Beziehung  $N_{\rm Burst} = N_{\rm Fehler} \cdot V_a(k_{\rm Burst} )$, wobei  $N_{\rm Fehler}$  die Anzahl aller Fehler im Block angibt.
  • Daraus lässt sich die mittlere Fehlerzahl pro Burst in einfacher Weise berechnen:
\[{\rm E}[G_{\rm Burst}] =\frac {N_{\rm Fehler} }{N_{\rm Burst} } =\frac {1}{V_a(k_{\rm Burst})}\hspace{0.05cm}.\]

Die Markierungen in der Grafik korrespondieren mit folgenden Zahlenwerten der  Fehlerabstandsverteilung:

  • Die grünen Kreise $($Wilhelm–Kanal,  $\alpha = 0.7)$  ergeben sich aus  $V_a(10) = 0.394$  und  $V_a(100) = 0.193$.
  • Die roten Kreise $($BSC–Kanal,  $\alpha = 1)$  sind die Kehrwerte von  $V_a(10) = 0.991$  und  $V_a(100) = 0906$.


Aufgaben zum Kapitel


Aufgabe 5.6: Fehlerkorrelationsdauer

Aufgabe 5.6Z: GE-Modelleigenschaften

Aufgabe 5.7: McCullough-Parameter aus Gilbert-Elliott-Parameter

Aufgabe 5.7Z: Nochmals McCullough-Modell



Quellenverzeichnis

  1. Gilbert, E. N.:  Capacity of Burst–Noise Channel.  In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.
  2. Elliott, E.O.:  Estimates of Error Rates for Codes on Burst–Noise Channels.  In: Bell Syst. Techn. J., Vol. 42, (1963), pp. 1977 – 1997.
  3. Huber, J.:  Codierung für gedächtnisbehaftete Kanäle.  Dissertation – Universität der Bundeswehr München, 1982.
  4. McCullough, R.H.:  The Binary Regenerative Channel.  In: Bell Syst. Techn. J. (47), 1968.
  5. 5,0 5,1 5,2 Wilhelm, C.:  A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. Neue Kanalmodelle mit Formeln für die Wahrscheinlichkeit von Fehlerstrukturen.  Internet-Veröffentlichungen zu Channels-Networks, 2011ff.