Viterbi–Empfänger
Inhaltsverzeichnis
- 1 Blockschaltbild und Voraussetzungen für Kapitel 3.8 (1)
- 2 Blockschaltbild und Voraussetzungen für Kapitel 3.8 (2)
- 3 Fehlergrößen und Gesamtfehlergrößen (1)
- 4 Fehlergrößen und Gesamtfehlergrößen (2)
- 5 Fehlergrößen und Gesamtfehlergrößen (3)
- 6 Minimale Gesamtfehlergröße und Trellisdiagramm (1)
- 7 Minimale Gesamtfehlergröße und Trellisdiagramm (2)
- 8 Vereinfachtes Trellisdiagramm
- 9 Erweiterung auf zwei Vorläufer
- 10 Fehlerwahrscheinlichkeit bei Maximum–Likelihood–Entscheidung (1)
- 11 Fehlerwahrscheinlichkeit bei Maximum–Likelihood–Entscheidung (2)
Blockschaltbild und Voraussetzungen für Kapitel 3.8 (1)
Der Korrelationsempfänger ist im Sinne der Maximum–Likelihood–Entscheidungsregel optimal, das heißt, er führt bei gleichwahrscheinlichen Quellensymbolen zur minimalen Fehlerwahrscheinlichkeit. Nachteilig ist:
- Der Realisierungsaufwand steigt exponentiell mit der Länge N der zu detektierenden Symbolfolge.
- Da die Folge gemeinsam entschieden wird, kommt es bei großem N zu langen Verzögerungen.
In den 1970er Jahren hat Andrew J. Viterbi einen ML–Empfänger vorgeschlagen, der die Detektion von Teilen der empfangenen Nachricht erlaubt und bei dem sich der Realisierungsaufwand auch bei unendlich langen Folgen in Grenzen hält.
Zu den einzelnen Komponenten des Blockschaltbildes ist anzumerken:
- Das an den Empfangsgrundimpuls und die Störung angepasste Matched–Filter HMF(f) dient der Störleistungsbegrenzung. Das MF–Ausgangssignal m(t) bzw. die Folge 〈mν〉 der äquidistanten Signalwerte nach der Abtastung besitzt das bestmögliche Signal–zu–Stör–Leistungsverhältnis.
- Aufgabe des Dekorrelationsfilters HDF(f) ist es, aus der Folge 〈mν〉 die Detektionsabtastwerte dν = dSν + dNν zu gewinnen, deren Störanteile dNν unkorreliert sind. Dieses Filter wird deshalb auch Whitening–Filter genannt.
- Der Viterbi–Entscheider, der im Mittelpunkt der folgenden Betrachtungen steht, gewinnt aus der Folge 〈dν〉 seiner wertkontinuierlichen Eingangswerte die binäre Ausgangsfolge 〈υν〉 entsprechend der Maximum–Likelihood–Regel mit der kleinstmöglichen Fehlerwahrscheinlichkeit Pr(υν ≠ qν).
Die Beschreibung wird auf der nächsten Seite fortgesetzt.
Blockschaltbild und Voraussetzungen für Kapitel 3.8 (2)
Um den Viterbi–Algorithmus möglichst einfach beschreiben und veranschaulichen zu können, werden hier einige vereinfachende Voraussetzungen getroffen:
- Die Amplitudenkoeffizienten seien unipolar ⇒ aν ∈ {0, 1}. Anzumerken ist, dass es bei der Verwendung bipolarer Koeffizienten aν ∈ {–1, +1} nur weniger Modifikationen bedarf.
- Der Grundimpuls gd(t) besteht nur aus dem Hauptwert g0 = gd(t = TD) und einem Vorläufer g–1 = gd(t = TD – T).
- Damit ergeben sich für die wertkontinuierlichen Detektionsabtastwerte
- \[d_{\nu} = a_{\nu}\cdot g_{0} + a_{\nu+1}\cdot g_{-1}+d_{{\rm N}\nu} \hspace{0.05cm},\]
- wobei die Rauschkomponente dNν als gaußverteilt angenommen wird (Streuung σd).
Bei bipolarer Signalisierung ist der Algorithmus nicht aufwändiger. Dagegen steigt der Rechenaufwand, wenn der Detektionsgrundimpuls breiter wird und mehr als nur einen Vorläufer g–1 aufweist. Die Vernachlässigung von Nachläufern stellt keine grundlegende Einschränkung dar, weil jeder Impuls gd(t) diese Bedingung durch geeignete Wahl des Detektionszeitpunktes TD erfüllen kann. Anzumerken ist weiter, dass im Folgenden alle Signalwerte auf 1 normiert werden.
g0 + g–1, annehmen kann.
Die am Viterbi–Entscheider anstehenden Abtastwerte (rote Punkte) sind d0 = 0.2, d1 = 0.7, d2 = 0.5, d3 = 0, ... , wobei die Differenzen dNν = dν – dSν von einer AWGN–Rauschquelle herrühren.
Fehlergrößen und Gesamtfehlergrößen (1)
Wie in Kapitel 3.7 gibt Q ∈ {Qi} die begrenzte, aus N Binärsymbolen bestehende Quellensymbolfolge an. Die Anzahl der möglichen Symbolfolgen Qi ist somit 2N. V bezeichnet wieder die Sinkensymbolfolge der Länge N, die vom Viterbi–Entscheider gleich der wahrscheinlichsten Folge Qj gesetzt wird.
\[\varepsilon_{\nu}(i) = |d_{\nu} - d_{{\rm S}\nu}(i)|^2 \hspace{0.05cm}.\]
Die Gesamtfehlergröße γν(i) kennzeichnet die Summe aller Fehlergrößen bis zum Zeitpunkt ν:
Man bezeichnet γν(i) auch als Metrik. Anzumerken ist, dass diese Definitionen an einem Grundimpuls mit Hauptwert g0 und nur einem Vorläufer g–1 angepasst sind. Bei υ Vorläufern müsste die obige Summe bei k = 1 – υ beginnen. Der Parameter i ∈ {0, ... , 2N+1–1} wird meist binär dargestellt, so dass i gleichzeitig die Amplitudenkoeffizienten a1, ... , aν+1 (jeweils entweder 0 oder 1) angibt.
Die Grafik verdeutlicht die oben definierten Größen in einer Baumstruktur, woraus zu erkennen ist, dass die Gesamtfehlergrößen iterativ berechnet werden können:
\[\gamma_{\nu}(i)= \gamma_{\nu-1}(i')+\varepsilon_{k}(i'') \hspace{0.05cm}.\]
i, i' und i sind unterschiedliche Laufvariable. Die Bildbeschreibung folgt auf der nächsten Seite.
Fehlergrößen und Gesamtfehlergrößen (2)
Zu dieser Grafik, die hier nochmals eingeblendet werden kann, ist Folgendes anzumerken:
- Die Knoten des Baumdiagramms stehen für die Gesamtfehlergrößen γν(i); deren Anzahl wird mit jedem Iterationsschritt verdoppelt. Zum Zeitpunkt ν gibt es 2ν+1 solcher Knoten. Beispielsweise sind für ν = 3 genau 24 = 16 Knoten zu erkennen.
- Die zu den Gesamtfehlergrößen γν(i) gehörigen Amplitudenkoeffizienten ergeben sich, wenn man den Weg vom Anfangsknoten bis zum betrachteten Knoten verfolgt. Es wird vereinbart, dass einem nach oben gerichteten Zweig der Amplitudenkoeffizient 1 und einem nach unten gerichteten Zweig eine 0 zugeordnet wird.
- Beispielsweise kennzeichnet der grün hinterlegte Knoten γ3(1100) die Gesamtfehlergröße unter der hypothetischen Annahme, dass die Symbole a1 = 1, a2 = 1, a3 = 0, a4 = 0 gesendet wurden. Diese Zuordnung kann auch aus den Richtungen der Pfeile im Baumdiagramm abgelesen werden: zunächst zweimal nach oben, dann zweimal nach unten.
- Aufgrund des Vorläufers muss bereits zum Zeitpunkt ν = 3 der Koeffizient a4 mitberücksichtigt werden. Alle Knoten γν(i), die unter der Voraussetzung aν+1 = 1 berechnet werden, sind im Baumdiagramm durch Rechtecke dargestellt, während die Hypothese aν+1 = 0 jeweils durch ein abgerundetes Rechteck symbolisiert ist, z. B. γ2 (110) oder γ3 (1100).
- Die Zweige im Baumdiagramm sind den Fehlergrößen εν(i) zugeordnet. Beim vorausgesetzten Grundimpuls (nur g0 und g–1 sind ungleich 0) gibt es zu jedem Zeitpunkt mit Ausnahme des Startzustandes (ν = 0) genau vier unterschiedliche Größen:
- \[\varepsilon_{\nu}(00) = |d_{\nu}|^2\hspace{0.05cm},\hspace{0.5cm}\varepsilon_{\nu}(01) = |d_{\nu}-g_{-1}|^2\hspace{0.05cm},\]
- \[\varepsilon_{\nu}(10) = |d_{\nu}-g_{0}|^2\hspace{0.05cm},\hspace{0.2cm}\varepsilon_{\nu}(11) = |d_{\nu}-g_{0}-g_{-1}|^2\hspace{0.05cm}.\]
- Die Gesamtfehlergröße γν ist gleich der Summe aus dem vorausgegangenen Knoten γν–1 und dem dazwischenliegenden Zweig εν. Beispielsweise gilt für die hervorgehobenen Knoten:
- \[\gamma_{1}(11)=\gamma_{0}(1)+\varepsilon_{1}(11) ,\hspace{0.05cm} \gamma_{2}(110)=\gamma_{1}(11)+\varepsilon_{2}(10) ,\hspace{0.05cm} \gamma_{3}(1100)=\gamma_{2}(110)+\varepsilon_{3}(00) .\]
- Bei den ersten Knoten γ0(0) und γ0(1) wird berücksichtigt, dass vor der eigentlichen Übertragung (a1, a2, ...) vereinbarungsgemäß stets das Symbol a0 = 0 übertragen wird. Daraus folgt:
- \[\gamma_{0}(0)=\varepsilon_{0}(00)= |d_{0}|^2 \hspace{0.05cm},\hspace{0.2cm} \gamma_{0}(1)=\varepsilon_{0}(01)=|d_{0}-g_{-1}|^2 \hspace{0.05cm}.\]
Das nachfolgende Beispiel wird hoffentlich diese etwas ermüdenden Aussagen verdeutlichen.
Fehlergrößen und Gesamtfehlergrößen (3)
\[g_{0}=0.7 \hspace{0.05cm},\hspace{0.2cm} g_{-1}=0.3 \hspace{0.05cm},\hspace{0.2cm} d_{0}=0.2 \hspace{0.05cm},\hspace{0.2cm} d_{1}=0.7 \hspace{0.05cm},\hspace{0.2cm} d_{2}=0.5 \hspace{0.05cm},\hspace{0.2cm} d_{3}=0 \hspace{0.05cm} \hspace{0.05cm}.\]
Nachfolgend ist das Baumdiagramm mit den Knoten γν(i) für die Zeitpunkte ν = 0 bis ν = 3 dargestellt. Die Berechnung der sich ergebenden Fehlergrößen εν(i) folgt auf der nächsten Seite.
Die minimale Gesamtfehlergröße γ3(1100) ist gleich 0.14. Daraus ergeben sich die Koeffizienten der nach den vorliegenden Signalwerten d0, d1, d2, d3 mit größter Wahrscheinlichkeit gesendeten Folge zu a1 = 1, a2 = 1 und a3 = 0 (grün eingezeichneter Pfad). Weiter ist zu sagen:
- Ist die Folgenlänge N = 3 (das heißt: nur drei Symbole werden durch den Viterbi–Empfänger gemeinsam entschieden), so ist auch die Entscheidung a4 = 0 mit Sicherheit die richtige, da alle Koeffizienten aν>3 als 0 vorausgesetzt wurden.
- Bei längerer Folge (N > 3) kann aus dem minimalen Wert γ3(1100) nicht unbedingt geschlossen werden, dass a1 = 1, a2 = 1, a3 = 0 Teil der wahrscheinlichsten Folge ist. Bei Berücksichtigung weiterer Abtastwerte (d4, d5, ...) könnte sich dieses vorläufige Ergebnis durchaus noch ändern.
Die Berechnung der Fehlergrößen für ν = 0 bis ν = 3 wird auf der nächsten Zeile gezeigt.
Nachzutragen ist die Berechnung der Fehlergrößen für die Zeitpunkte ν = 0 bis ν = 3. Die unipolare Quellensymbolfolge hat die Länge N = 3. Die Amplitudenkoeffizienten seien a1 = 1, a2 = 1, a3 = 0. Weiterhin gilt:
\[g_{0}=0.7 \hspace{0.05cm},\hspace{0.2cm} g_{-1}=0.3 \hspace{0.05cm},\hspace{0.2cm} d_{0}=0.2 \hspace{0.05cm},\hspace{0.2cm} d_{1}=0.7 \hspace{0.05cm},\hspace{0.2cm} d_{2}=0.5 \hspace{0.05cm},\hspace{0.2cm} d_{3}=0 \hspace{0.05cm} \hspace{0.05cm}.\]
Das Baumdiagramm mit den Knoten γν(i) ist unten dargestellt. Für die Zeitpunkte ν = 0 bis ν = 3 gilt:
\[\nu = 0 : \hspace{0.2cm}\varepsilon_{0}(00) = [0.2- (0 \cdot 0.7 + 0 \cdot 0.3)]^2=0.04 \hspace{0.05cm},\]
- \[\hspace{0.4cm} \varepsilon_{0}(01) = [0.2- (0 \cdot 0.7 + 1 \cdot 0.3)]^2=0.01 \hspace{0.05cm},\]
\[\nu = 1 : \hspace{0.2cm}\varepsilon_{1}(00) = [0.7- (0 \cdot 0.7 + 0 \cdot 0.3)]^2=0.49 \hspace{0.05cm},\]
- \[\hspace{0.4cm} \varepsilon_{1}(01) = [0.7- (0 \cdot 0.7 + 1 \cdot 0.3)]^2=0.16 \hspace{0.05cm},\]
- \[\hspace{0.4cm}\varepsilon_{1}(10) = [0.7- (1 \cdot 0.7 + 0 \cdot 0.3)]^2=0.00 \hspace{0.05cm}\]
- \[\hspace{0.4cm}\varepsilon_{1}(11) = [0.7- (1 \cdot 0.7 + 1 \cdot 0.3)]^2=0.09 \hspace{0.05cm},\]
\[\nu = 2 : \hspace{0.2cm}\varepsilon_{2}(00) = [0.5- (0 \cdot 0.7 + 0 \cdot 0.3)]^2=0.25 \hspace{0.05cm},\]
- \[\hspace{0.4cm}\varepsilon_{2}(01) = [0.5- (0 \cdot 0.7 + 1 \cdot 0.3)]^2=0.04 \hspace{0.05cm},\]
- \[\hspace{0.4cm}\varepsilon_{2}(10) = [0.5- (1 \cdot 0.7 + 0 \cdot 0.3)]^2=0.04 \hspace{0.05cm},\]
- \[\hspace{0.4cm}\varepsilon_{2}(11) = [0.5- (1 \cdot 0.7 + 1 \cdot 0.3)]^2=0.25 \hspace{0.05cm},\]
\[ \nu = 3 : \hspace{0.2cm}\varepsilon_{3}(00) = [0.0- (0 \cdot 0.7 + 0 \cdot 0.3)]^2=0.00 \hspace{0.05cm},\]
- \[\hspace{0.4cm}\varepsilon_{3}(01) = [0.0- (0 \cdot 0.7 + 1 \cdot 0.3)]^2=0.09 \hspace{0.05cm},\]
- \[\hspace{0.4cm}\varepsilon_{3}(10) = [0.0- (1 \cdot 0.7 + 0 \cdot 0.3)]^2=0.49 \hspace{0.05cm},\]
- \[\hspace{0.4cm}\varepsilon_{3}(11) = [0.0- (1 \cdot 0.7 + 1 \cdot 0.3)]^2=1.00 \hspace{0.05cm}.\]
Minimale Gesamtfehlergröße und Trellisdiagramm (1)
Wir gehen weiterhin von den Zahlenwerten des letzten Beispiels aus.
Wichtige Eigenschaften des optimalen Entscheiders (Maximum–Likelihood) lassen sich aus obiger Grafik anhand des Zeitpunktes ν = 2 erkennen:
- Die minimale Gesamtfehlergröße ist γ2(101) = 0.05 (braun hervorgehoben). Das bedeutet: Eine Entscheidung zu diesem Zeitpunkt – basierend auf den Werten d0, d1 und d2 – wäre zugunsten der Folge „101” anstelle der gesendeten Folge „110” ausgegangen.
- Daraus folgt: Für eine optimale Entscheidung sollte eine zu frühe endgültige Festlegung unbedingt vermieden werden. Allerdings kann man zu jedem Zeitpunkt ν bereits mehrere Teilsymbolfolgen ausschließen, die zu späteren Zeitpunkten nicht mehr berücksichtigt werden müssen.
- Zu γ2(001), γ2(011) und γ2(111) werden jeweils genau die gleichen Fehlergrößen hinzuaddiert. Da diese drei Metriken alle größer sind als γ2(101) = 0.05, steht bereits bei ν = 2 fest, dass „001”, „011” sowie „111” nicht Bestandteil der wahrscheinlichsten Folge sein können. Diese Knoten und alle ihre Nachfahren müssen deshalb nicht weiter beachtet werden (braune Überdeckungen).
- Gleiches gilt für die abgerundeten Knoten: γ2(000), γ2(010) und γ2(100) sind größer als der grün markierte Knoten γ2(110) = 0.14, so dass auch diese und ihre Nachfahren ab dem Zeitpunkt ν = 3 nicht mehr berücksichtigt werden müssen (grüne Überdeckungen).
- Man stellt fest: Von den acht Knoten bei ν = 2 müssen nur zwei weiterverfolgt werden, nämlich das abgerundete Rechteck γ2(110) = 0.14 und das Rechteck γ2(101) = 0.05. Diese beschreiben die minimalen Gesamtfehlergrößen unter der Annahme, dass a3 = 0 bzw. a3 = 1 sein wird.
Die Beschreibung wird auf der nächsten Seite fortgesetzt.
Minimale Gesamtfehlergröße und Trellisdiagramm (2)
Verallgemeinern wir nun das Ergebnis dieses Beispiels. Unter der weiterhin gültigen Annahme, dass der Grundimpuls neben dem Hauptwert (g0) nur einen Vorläufer (g–1) aufweist, ergeben sich die beiden minimalen Gesamtfehlergrößen zum Zeitpunkt ν formal zu
\[{\it \Gamma}_{\nu}(0) = {\rm Min}\left[{\it \Gamma}_{\nu-1}(0) + \varepsilon_{\nu}(00), \hspace{0.2cm}{\it \Gamma}_{\nu-1}(1) + \varepsilon_{\nu}(10)\right] \hspace{0.05cm},\] \[ {\it \Gamma}_{\nu}(1) = {\rm Min}\left[{\it \Gamma}_{\nu-1}(0) + \varepsilon_{\nu}(01), \hspace{0.2cm}{\it \Gamma}_{\nu-1}(1) + \varepsilon_{\nu}(11)\right] \hspace{0.05cm}.\]
Das Verfahren der Gesamtfehlerminimierung lässt sich im Trellisdiagramm anschaulich darstellen.
Ein Vergleich mit den Bildern auf den letzten Seiten zeigt:
- Der untere Zweig stellt die minimale Gesamtfehlergröße Γν(0) dar, die zu jedem Zeitpunkt ν unter der Hypothese berechnet wird, dass aν+1 = 0 gelten wird (blaue abgerundete Quadrate).
- Dagegen beschreibt der obere Zweig die minimalen Gesamtfehlergrößen Γν(1) unter der Annahme aν+1 = 1 (rote Quadrate). Auch hier sind die Zahlenwerte an das bisherige Beispiel angepasst.
- Außer Γν(0) und Γν(1) muss der ML–Entscheider auch die dazugehörigen Symbolfolgen (Pfade) abspeichern. Diese Zweige sind in der Grafik rot bzw. blau hervorgehoben.
- Falls Γν aus dem Knoten Γν–1(0) hervorgeht – also wenn der untere der beiden ankommenden Zweige hervorgehoben ist – so ist das dazugehörige Symbol „0”, andernfalls die „1”.
- Zur Zeit ν = 3 ergeben sich z. B. sowohl Γ3(0) = 0.14 als auch Γ3(1) = 0.23 aus dem Vorgänger Γ2(0), so dass beide ausgewählte Pfade jeweils auf das Symbol „0” verweisen (blaue Zweige).
Vereinfachtes Trellisdiagramm
Der Vorteil des Trellisdiagramms besteht darin, dass sich die Anzahl der Knoten und Zweige nicht bei jedem Iterationsschritt verdoppeln. Durch die Auswahl der minimalen Gesamtfehlergrößen werden nur noch diejenigen Symbolfolgen weiter betrachtet, die als Teil der wahrscheinlichsten Folge überhaupt noch in Frage kommen.
Das Trellisdiagramm lässt sich weiter vereinfachen, indem man nur noch die ausgewählten Zweige einzeichnet. Dies ist im unteren Teil der Grafik an unserem Zahlenbeispiel verdeutlicht. Zur Erinnerung: Die tatsächlich gesendeten Amplitudenkoeffizienten seien a1 = 1, a2 = 1 und a3 = 0, und das oben gezeichnete Trellisdiagramm wurden unter der Annahme berechnet, dass aufgrund der Impulswerte g–1 = 0.3 und g0 = 0.7 und des AWGN–Rauschens die Eingangswerte d0 = 0.2, d1 = 0.7, d2 = 0.5 und d3 = 0 am ML–Entscheider anliegen.
Dieses vereinfachte Trellisdiagramm erlaubt folgende Aussagen:
- Die Entscheidung über a1 = 1 kann sofort zum Zeitpunkt ν = 1 getroffen werden, da sich unter beiden Hypothesen – nämlich das nachfolgende Symbol ist a2 = 0 bzw. das nachfolgende Symbol ist a2 = 1 – das gleiche Resultat a1 = 1 ergibt.
- Dagegen kann die endgültige Entscheidung über a2 zum Zeitpunkt ν = 2 noch nicht getroffen werden. Unter der Annahme, dass a3 = 0 sein wird, müsste man sich für a2 = 1 entscheiden, während die Hypothese a3 = 1 zur Festlegung auf a2 = 0 führen würde.
- Zur Zeit ν = 3 ist die Entscheidung für a1 = 1, a2 = 1, a3 = 0 endgültig, da beide durchgehenden Pfade diese (die in diesem Fall richtige) Folge suggerieren. Würde man die Entscheidung auf den Zeitpunkt ν = 4 verschieben, so hätte man nicht mehr nutzbare Information über a1, a2 und a3.
Alle Aussagen dieses Kapitels können mit dem folgenden Interaktionsmodul überprüft werden:
Viterbi–Empfänger für einen Vorläufer
Erweiterung auf zwei Vorläufer
Wird der Grundimpuls durch die Abtastwerte g0, g–1 und g–2 beschrieben, so gibt es im Trellisdiagramm zu jedem Zeitpunkt ν genau vier Metriken Γν(00), ... , Γν(11) zu bestimmen. Γν(01) beschreibt dann beispielsweise die minimale Gesamtfehlergröße für die Detektion des Symbols aν unter der Hypothese, dass aν+1 = 0 und aν+2 = 1 sein werden, und es gilt:
\[{\it \Gamma}_{\nu}(01) = {\rm Min}\left[{\it \Gamma}_{\nu-1}(00) + \varepsilon_{\nu}(001), \hspace{0.2cm}{\it \Gamma}_{\nu-1}(10) + \varepsilon_{\nu}(101)\right] \hspace{0.05cm}.\]
In der Aufgabe A3.12 wird noch im Detail auf die Berechnung der Fehlergrößen und die Minimierung der Gesamtfehlergrößen eingegangen. Hier betrachten wir nur ein beispielhaftes Trellisdiagramm, das die (fehlerfreie) Detektion von folgender Symbolfolge widergibt:
\[a_{1}=0 \hspace{0.05cm},\hspace{0.2cm} a_{2}=0 \hspace{0.05cm},\hspace{0.2cm} a_{3}=1 \hspace{0.05cm},\hspace{0.2cm} a_{4}=1 \hspace{0.05cm},\hspace{0.2cm} a_{5}=1 \hspace{0.05cm},\hspace{0.2cm} a_{6}=0 \hspace{0.05cm}, \hspace{0.05cm}...\]
Dieses vereinfachte Trellisdiagramm erlaubt folgende Aussagen:
- Alle von Γν–1 (00) bzw. Γν–1 (01) abgehende Zweige sind dem Symbol „0” zugeordnet und blau gezeichnet. Die von den zwei oberen Zuständen abgehenden roten Zweige kennzeichnen die „1”.
- Verfolgt man die durchgehenden Pfade, so erkennt man die angegebene Folge. Da zum Zeitpunkt ν = 6 nur blaue Zweige ankommen, liegen hier die ersten sechs Bit der Folge endgültig fest.
- Teilfolgen könnten aber auch bereits zu den Zeiten ν = 1, ν = 3 und ν = 4 ausgegeben werden, da sich zu diesen Zeiten für alle vier Zustände die gleichen Teilpfade ergeben.
- Dagegen darf bei ν = 2 und ν = 5 nicht sofort entschieden werden. Beispielsweise ist zum Zeitpunkt ν = 5 nur sicher, dass entweder a5 = 0, a6 = 1 oder a5 = 1, a6 = 0 sein werden.
Fehlerwahrscheinlichkeit bei Maximum–Likelihood–Entscheidung (1)
Die exakte Berechnung der Fehlerwahrscheinlichkeit pB bei ML–Entscheidung (beispielsweise mit dem Korrelations– oder dem Viterbi–Empfänger) ist sehr aufwändig. Dabei müssen
- die Differenzenergien zwischen allen möglichen Symbolfolgen Qi, Qj ermittelt werden, wobei die Fehlerwahrscheinlichkeit im Wesentlichen durch die minimale Differenzenergie bestimmt wird;
- auch die Einflüsse von Matched–Filter HMF(f) und Dekorrelationsfilter HDF(f) berücksichtigt und der Effektivwert σd des Detektionsstörsignals bestimmt werden.
Eine einfache Näherung für die (mittlere) Fehlerwahrscheinlichkeit bei ML–Entscheidung lautet:
\[p_{\rm ML} = {\rm Q}\left(\frac{g_{\rm max}}{\sigma_d}\right) \hspace{0.3cm}{\rm mit}\hspace{0.2cm}g_{\rm max}= {\rm Max}\hspace{0.15cm}|g_\nu | \hspace{0.05cm}.\]
Diese Näherung gilt nur bei bipolarer Signalisierung. Bei unipolaren Amplitudenkoeffizienten muss das Argument der Q-Funktion halbiert werden.
Für die folgende Interpretation und das anschließende Beispiel auf der nächsten Seite wird vorausgesetzt, dass υ + 1 Grundimpulswerte (inclusive des Hauptwertes) von 0 verschieden sind. Dann gilt:
- Der Viterbi–Entscheider muss alle diese Grundimpulswerte berücksichtigen. Das bedeutet, dass ein Trellisdiagramm mit 2υ Zuständen zu bearbeiten ist.
- Voraussetzung für die Gültigkeit obiger Gleichung ist die Unkorreliertheit der Störungen am Entscheider, die durch das Dekorrelationsfilter erreicht wird.
- Für den Vergleich mit Schwellenwertentscheider (pSE) bzw. Entscheidungsrückkopplung (pDFE) wird der Effektivwert σd des Detektionsstörsignals als konstant vorausgesetzt.
- Zu berücksichtigen ist aber, dass die Optimierung des ML–Systems zu sehr schmalbandigen Filtern führt, da alle Impulsausläufer durch den ML–Algorithmus herausgerechnet werden können.
- Unter der Voraussetzung konstanter Rauschleistungsdichte N0 (am Empfängereingang) ist deshalb der Störeffektivwert (am Entscheider) beim ML–System kleiner als bei den anderen Varianten.
- Das bedeutet: Der Störabstandsgewinn durch die Maximum–Likelihood–Entscheidung ist unter Umständen noch größer, als es das nachfolgende Beispiel (mit σd = const.) ausdrückt.
Fehlerwahrscheinlichkeit bei Maximum–Likelihood–Entscheidung (2)
Bei einem Binärempfänger mit einfacher Schwellenwertentscheidung entsprechend Kapitel 3.2 ergibt sich für die (mittlere) Fehlerwahrscheinlichkeit bei bipolarer Signalisierung:
\[p_{\rm SE} = \frac{1}{4}\cdot {\rm Q}\left(\frac{g_{0}+g_{1}+g_{-1}}{\sigma_d}\right) +\frac{1}{4}\cdot {\rm Q}\left(\frac{g_{0}+g_{1}-g_{-1}}{\sigma_d}\right)\]
- \[ \hspace{0.15cm} = \frac{1}{4}\cdot {\rm Q}\left(\frac{g_{0}-g_{1}+g_{-1}}{\sigma_d}\right) +\frac{1}{4}\cdot {\rm Q}\left(\frac{g_{0}-g_{1}-g_{-1}}{\sigma_d}\right)\approx \frac{{\rm Q}(2)}{4}= 0.57 \% \hspace{0.05cm}.\]
Für den Empfänger mit idealer Entscheidungsrückkopplung erhält man unter Berücksichtigung von g1 = 0 (Kompensation des Nachläufers):
\[p_{\rm DFE} = \frac{1}{2}\cdot {\rm Q}\left(\frac{g_{0}+g_{-1}}{\sigma_d}\right) +\frac{1}{2}\cdot {\rm Q}\left(\frac{g_{0}-g_{-1}}{\sigma_d}\right)\approx \frac{{\rm Q}(4)}{4}= 0.16 \cdot 10^{-4} \hspace{0.05cm}.\]
Dagegen führt die Anwendung der Maximum–Likelihood–Entscheidung (mit Korrelations– bzw. Viterbi–Empfänger) zur sehr viel kleineren Fehlerwahrscheinlichkeit
\[p_{\rm ML} = {\rm Q}\left(\frac{g_{0}}{\sigma_d}\right) \approx {\rm Q}(6) = 10^{-9} \hspace{0.05cm}.\]
Dies entspricht gegenüber den beiden anderen Systemen einem Störabstandsgewinn von ca. 3 dB (DFE) bzw. 7.5 dB (SE). Das Ergebnis dieser einfachen Näherung wurde durch Simulationen im Wesentlichen bestätigt.
Um den oben beschriebenen Viterbi–Algorithmus direkt anwenden zu können, müssen die (normierten) Grundimpulswerte g0 = 0.2, g–1 = 0.6 und g–2 = 0.2 eingestellt werden. Eine Zeitverschiebung um Vielfache der Symboldauer T gegenüber dem aus Darstellungsgründen gewählten Koordinatensystem ändert nämlich die Leistungsmerkmale der Viterbi–Entscheidung nicht.
Aus der obigen Näherung erkennt man weiter, dass eine ML–Entscheidung nur bei Vorhandensein von Impulsinterferenzen von Vorteil ist. Bei Nyquistentzerrung (das heißt: nur der Grundimpulswert g0 ist von 0 verschieden) arbeitet auch der Maximum–Likelihood–Empfänger symbolweise und mit der gleichen Fehlerwahrscheinlichkeit Q(g0/σd) wie ein herkömmlicher Empfänger.