Digitalsignalübertragung/Grundlagen der codierten Übertragung: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(10 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 8: Zeile 8:
 
== # ÜBERBLICK ZUM ZWEITEN HAUPTKAPITEL # ==
 
== # ÜBERBLICK ZUM ZWEITEN HAUPTKAPITEL # ==
 
<br>
 
<br>
Das zweite Hauptkapitel behandelt die so genannte '''Übertragungscodierung''', die in der Literatur manchmal auch als „Leitungscodierung” bezeichnet wird. Dabei wird durch gezieltes Hinzufügen von Redundanz eine Anpassung des digitalen Sendesignals an die Eigenschaften des Übertragungskanals erreicht. Im Einzelnen werden behandelt:
+
Das zweite Hauptkapitel behandelt die so genannte&nbsp; '''Übertragungscodierung''',&nbsp; die in der Literatur manchmal auch als&nbsp; &raquo;Leitungscodierung&laquo;&nbsp; bezeichnet wird.&nbsp; Dabei wird durch gezieltes Hinzufügen von Redundanz eine Anpassung des digitalen Sendesignals an die Eigenschaften des Übertragungskanals erreicht.&nbsp;
  
*einige grundlegende Begriffe der Informationstheorie wie ''Informationsgehalt'' und ''Entropie'',
+
Im Einzelnen werden behandelt:
*die AKF&ndash;Berechnung und die Leistungsdichtespektren von Digitalsignalen,
 
*die redundanzfreie Codierung, die zu einem nichtbinären Sendesignal führt,
 
*die Berechnung von Symbol&ndash; und Bitfehlerwahrscheinlichkeit bei mehrstufigen Systemen,
 
*die so genannten 4B3T&ndash;Codes als ein wichtiges Beispiel von blockweiser Codierung, und
 
*die Pseudoternärcodes, die jeweils eine symbolweise Codierung realisieren.
 
  
 +
*einige grundlegende Begriffe der Informationstheorie wie&nbsp; &raquo;Informationsgehalt&laquo;&nbsp; und&nbsp; &raquo;Entropie&laquo;,
 +
*die&nbsp; &raquo;Autokorrelationsfunktion&laquo;&nbsp; und die&nbsp; &raquo;Leistungsdichtespektren&laquo;&nbsp; von Digitalsignalen,
 +
*die&nbsp; &raquo;redundanzfreie Codierung&laquo;,&nbsp; die zu einem nichtbinären Sendesignal führt,
 +
*die Berechnung von&nbsp; &raquo;Symbol&ndash; und Bitfehlerwahrscheinlichkeit&laquo;&nbsp; bei mehrstufigen Systemen,
 +
*die so genannten&nbsp; &raquo;4B3T&ndash;Codes&laquo;&nbsp; als ein wichtiges Beispiel von blockweiser Codierung,&nbsp; und
 +
*die&nbsp; &raquo;Pseudoternärcodes&laquo;,&nbsp; die jeweils eine symbolweise Codierung realisieren.
  
Die Beschreibung erfolgt durchgehend im Basisband und es werden weiterhin einige vereinfachende Annahmen (unter Anderem: keine Impulsinterferenzen) getroffen.
 
  
Weitere Informationen zum Thema sowie Aufgaben, Simulationen und Programmierübungen finden Sie im
+
Die Beschreibung erfolgt durchgehend im Basisband und es werden weiterhin einige vereinfachende Annahmen&nbsp; (unter Anderem: &nbsp;keine Impulsinterferenzen)&nbsp; getroffen.&nbsp; Weitere Informationen zum Thema sowie Aufgaben, Simulationen und Programmierübungen finden Sie im
  
*Kapitel 15: Codierte und mehrstufige Übertragung, Programm cod
+
*Kapitel 15: &nbsp; Codierte und mehrstufige Übertragung, Programm "cod"
  
  
des Praktikums „Simulationsmethoden in der Nachrichtentechnik”. Diese (ehemalige) LNT-Lehrveranstaltung an der TU München basiert auf
+
des Praktikums „Simulationsmethoden in der Nachrichtentechnik”.&nbsp; Diese (ehemalige) LNT-Lehrveranstaltung an der TU München basiert auf
  
*dem Lehrsoftwarepaket [http://www.lntwww.de/downloads/Sonstiges/Programme/LNTsim.zip LNTsim] &nbsp;&rArr;&nbsp; Link verweist auf die ZIP-Version des Programms und  
+
*dem Lehrsoftwarepaket &nbsp;[http://www.lntwww.de/downloads/Sonstiges/Programme/LNTsim.zip LNTsim] &nbsp;&rArr;&nbsp; Link verweist auf die ZIP-Version des Programms und  
*dieser [http://www.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_B.pdf Praktikumsanleitung]  &nbsp;&rArr;&nbsp; Link verweist auf die PDF-Version; Kapitel 15: Seite 337-362.
+
*dieser &nbsp;[http://www.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_B.pdf Praktikumsanleitung]  &nbsp;&rArr;&nbsp; Link verweist auf die PDF-Version; Kapitel 15: &nbsp; Seite 337-362.
  
  
 
== Informationsgehalt – Entropie – Redundanz ==
 
== Informationsgehalt – Entropie – Redundanz ==
 
<br>
 
<br>
Wir gehen von einer $M$&ndash;stufigen digitalen Nachrichtenquelle aus, die folgendes Quellensignal abgibt:
+
Wir gehen von einer &nbsp;$M$&ndash;stufigen digitalen Nachrichtenquelle aus,&nbsp; die folgendes Quellensignal abgibt:
 
:$$q(t) = \sum_{(\nu)} a_\nu \cdot {\rm \delta} ( t - \nu \cdot T)\hspace{0.3cm}{\rm mit}\hspace{0.3cm}a_\nu \in \{ a_1, \text{...} \ , a_\mu , \text{...} \ , a_{ M}\}.$$
 
:$$q(t) = \sum_{(\nu)} a_\nu \cdot {\rm \delta} ( t - \nu \cdot T)\hspace{0.3cm}{\rm mit}\hspace{0.3cm}a_\nu \in \{ a_1, \text{...} \ , a_\mu , \text{...} \ , a_{ M}\}.$$
*Die Quellensymbolfolge $\langle q_\nu \rangle$  ist auf die Folge $\langle a_\nu \rangle$ der dimensionslosen Amplitudenkoeffizienten abgebildet.  
+
*Die Quellensymbolfolge &nbsp;$\langle q_\nu \rangle$&nbsp; ist also auf die Folge &nbsp;$\langle a_\nu \rangle$&nbsp; der dimensionslosen Amplitudenkoeffizienten abgebildet.  
*Vereinfachend wird zunächst für die Zeitlaufvariable $\nu = 1$, ... , $N$ gesetzt, während der Vorratsindex $\mu$ stets Werte zwischen $1$ und $M$ annehmen kann.
+
*Vereinfachend wird zunächst für die zeitliche Laufvariable &nbsp;$\nu = 1$, ... , $N$&nbsp; gesetzt, während der Vorratsindex &nbsp;$\mu$&nbsp; stets Werte zwischen &nbsp;$1$&nbsp; und $M$&nbsp; annehmen kann.
  
  
Ist das $\nu$&ndash;te Folgenelement gleich $a_\mu$, so kann dessen ''Informationsgehalt''&nbsp; mit der Wahrscheinlichkeit $p_{\nu\mu} = {\rm Pr}(a_\nu = a_\mu)$ wie folgt berechnet werden:
+
Ist das &nbsp;$\nu$&ndash;te Folgenelement gleich &nbsp;$a_\mu$, so kann dessen&nbsp; '''Informationsgehalt'''&nbsp; mit der Wahrscheinlichkeit &nbsp;$p_{\nu\mu} = {\rm Pr}(a_\nu = a_\mu)$&nbsp; wie folgt berechnet werden:
 
:$$I_\nu  = \log_2 \ (1/p_{\nu \mu})= {\rm ld} \ (1/p_{\nu \mu}) \hspace{1cm}\text{(Einheit:  bit)}\hspace{0.05cm}.$$
 
:$$I_\nu  = \log_2 \ (1/p_{\nu \mu})= {\rm ld} \ (1/p_{\nu \mu}) \hspace{1cm}\text{(Einheit:  bit)}\hspace{0.05cm}.$$
Der Logarithmus zur Basis 2 &nbsp;&#8658;&nbsp; $\log_2(x)$ wird oft auch mit ${\rm ld}(x)$ &nbsp;&#8658;&nbsp; <i>Logarithmus dualis</i> bezeichnet. Bei der numerischen Auswertung wird die Hinweiseinheit &bdquo;bit&rdquo; (von: ''binary digit'') hinzugefügt. Mit dem Zehner-Logarithmus $\lg(x)$ bzw. dem natürlichen Logarithmus $\ln(x)$ gilt:
+
Der Logarithmus zur Basis 2 &nbsp; &#8658; &nbsp; $\log_2(x)$&nbsp; wird oft auch mit &nbsp;${\rm ld}(x)$ &nbsp; &#8658; &nbsp; "Logarithmus dualis"&nbsp; bezeichnet.&nbsp; Bei der numerischen Auswertung wird die Hinweiseinheit&nbsp; &bdquo;bit&rdquo;&nbsp; (von: &nbsp;"binary digit"&nbsp;) hinzugefügt.&nbsp; Mit dem Zehner&ndash;Logarithmus &nbsp;$\lg(x)$&nbsp; bzw. dem natürlichen Logarithmus &nbsp;$\ln(x)$&nbsp; gilt:
 
:$${\rm log_2}(x) =  \frac{{\rm lg}(x)}{{\rm lg}(2)}= \frac{{\rm ln}(x)}{{\rm ln}(2)}\hspace{0.05cm}.$$
 
:$${\rm log_2}(x) =  \frac{{\rm lg}(x)}{{\rm lg}(2)}= \frac{{\rm ln}(x)}{{\rm ln}(2)}\hspace{0.05cm}.$$
Nach dieser auf [https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon] zurückgehenden Definition von Information ist der Informationsgehalt eines Symbols umso größer, je kleiner dessen Auftrittswahrscheinlichkeit ist.
+
Nach dieser auf &nbsp;[https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon]&nbsp; zurückgehenden Definition von Information ist der Informationsgehalt eines Symbols umso größer,&nbsp; je kleiner dessen Auftrittswahrscheinlichkeit ist.
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Die '''Entropie''' ist der mittlere Informationsgehalt eines Folgenelements (Symbols). Diese wichtige informationstheoretische Größe lässt sich als Zeitmittelwert wie folgt ermitteln:
+
$\text{Definition:}$&nbsp; Die&nbsp; '''Entropie'''&nbsp; ist der mittlere Informationsgehalt eines Folgenelements&nbsp; (Symbols).&nbsp; Diese wichtige informationstheoretische Größe lässt sich als Zeitmittelwert wie folgt ermitteln:
 
:$$H =  \lim_{N \to \infty} \frac{1}{N} \cdot \sum_{\nu = 1}^N  I_\nu  =
 
:$$H =  \lim_{N \to \infty} \frac{1}{N} \cdot \sum_{\nu = 1}^N  I_\nu  =
 
   \lim_{N \to \infty} \frac{1}{N} \cdot \sum_{\nu = 1}^N  \hspace{0.1cm}{\rm log_2}\hspace{0.05cm} \ (1/p_{\nu \mu}) \hspace{1cm}\text{(Einheit:  bit)}\hspace{0.05cm}.$$
 
   \lim_{N \to \infty} \frac{1}{N} \cdot \sum_{\nu = 1}^N  \hspace{0.1cm}{\rm log_2}\hspace{0.05cm} \ (1/p_{\nu \mu}) \hspace{1cm}\text{(Einheit:  bit)}\hspace{0.05cm}.$$
Natürlich kann die Entropie auch durch Scharmittelung berechnet werden.}}
+
Natürlich kann die Entropie auch durch Scharmittelung&nbsp; (über den Symbolvorrat)&nbsp; berechnet werden.}}
  
  
Sind die Folgenelemente $a_\nu$ statistisch voneinander unabhängig, so sind die Auftrittswahrscheinlichkeiten $p_{\nu\mu} = p_{\mu}$ unabhängig von $\nu$ und man erhält in diesem Sonderfall für die Entropie:
+
<u>Hinweise:</u>
 +
*Sind die Folgenelemente &nbsp;$a_\nu$&nbsp; statistisch voneinander unabhängig,&nbsp; so sind die Auftrittswahrscheinlichkeiten &nbsp;$p_{\nu\mu} = p_{\mu}$&nbsp; unabhängig von &nbsp;$\nu$&nbsp; und man erhält in diesem Sonderfall für die Entropie:
 
:$$H =    \sum_{\mu = 1}^M  p_{ \mu} \cdot {\rm log_2}\hspace{0.1cm} \ (1/p_{\mu})\hspace{0.05cm}.$$
 
:$$H =    \sum_{\mu = 1}^M  p_{ \mu} \cdot {\rm log_2}\hspace{0.1cm} \ (1/p_{\mu})\hspace{0.05cm}.$$
Bestehen dagegen statistische Bindungen zwischen benachbarten Amplitudenkoeffizienten $a_\nu$, so muss zur Entropieberechnung die kompliziertere Gleichung entsprechend obiger Definition herangezogen werden.<br>
+
*Bestehen dagegen statistische Bindungen zwischen benachbarten Amplitudenkoeffizienten &nbsp;$a_\nu$,&nbsp; so muss zur Entropieberechnung die kompliziertere Gleichung entsprechend obiger Definition herangezogen werden.<br>
  
Der Maximalwert der Entropie ergibt sich immer dann, wenn die $M$ Auftrittswahrscheinlichkeiten (der statistisch unabhängigen Symbole) alle gleich sind $(p_{\mu} = 1/M)$:
+
 
 +
{{BlaueBox|TEXT= 
 +
$\text{Definitionen:}$&nbsp;
 +
*Der Maximalwert der Entropie &nbsp; &rArr; &nbsp; '''Entscheidungsgehalt'''&nbsp; ergibt sich immer dann,&nbsp; wenn die &nbsp;$M$&nbsp; Auftrittswahrscheinlichkeiten&nbsp; (der statistisch unabhängigen Symbole)&nbsp; alle gleich sind &nbsp;$(p_{\mu} = 1/M)$:
 
:$$H_{\rm max} = \sum_{\mu = 1}^M  \hspace{0.1cm}\frac{1}{M} \cdot {\rm log_2} (M) = {\rm log_2} (M) \cdot \sum_{\mu = 1}^M  \hspace{0.1cm} \frac{1}{M} = {\rm log_2} (M)
 
:$$H_{\rm max} = \sum_{\mu = 1}^M  \hspace{0.1cm}\frac{1}{M} \cdot {\rm log_2} (M) = {\rm log_2} (M) \cdot \sum_{\mu = 1}^M  \hspace{0.1cm} \frac{1}{M} = {\rm log_2} (M)
 
  \hspace{1cm}\text{(Einheit:  bit)}\hspace{0.05cm}.$$
 
  \hspace{1cm}\text{(Einheit:  bit)}\hspace{0.05cm}.$$
 +
* Die&nbsp; '''relative Redundanz'''&nbsp; ist dann der folgende  Quotient:
 +
:$$r = \frac{H_{\rm max}-H}{H_{\rm max} }.$$
 +
*Da stets &nbsp;$0 \le H \le  H_{\rm max}$&nbsp; gilt,&nbsp; kann die relative Redundanz Werte zwischen &nbsp;$0$&nbsp; und &nbsp;$1$&nbsp; (einschließlich dieser Grenzwerte) annehmen.}}
  
{{BlaueBox|TEXT= 
 
$\text{Definition:}$&nbsp; Man bezeichnet $H_{\rm max}$ als den '''Entscheidungsgehalt''' (bzw. als ''Nachrichtengehalt'') der Quelle und den Quotienten
 
:$$r = \frac{H_{\rm max}-H}{H_{\rm max} }$$
 
als die '''relative Redundanz'''. Da stets $0 \le H \le  H_{\rm max}$ gilt, kann die relative Redundanz Werte zwischen $0$ und $1$ (einschließlich dieser Grenzwerte) annehmen.}}
 
  
 +
Aus der Herleitung dieser Beschreibungsgrößen ist offensichtlich, dass ein redundanzfreies Digitalsignal &nbsp;$(r=0)$&nbsp; folgende Eigenschaften erfüllen muss:
 +
*Die Amplitudenkoeffizienten &nbsp;$a_\nu$&nbsp; sind statistisch unabhängig &nbsp; &rArr; &nbsp;  $p_{\nu\mu} = {\rm Pr}(a_\nu = a_\mu)$&nbsp; ist für alle &nbsp;$\nu$&nbsp; identisch.<br>
 +
*Die &nbsp;$M$&nbsp; möglichen Koeffizienten  &nbsp;$a_\mu$&nbsp; treten mit gleicher Wahrscheinlichkeit &nbsp;$p_\mu = 1/M$&nbsp; auf.
  
Aus der Herleitung dieser Beschreibungsgrößen ist offensichtlich, dass ein redundanzfreies Digitalsignal $(r=0)$ folgende Eigenschaften erfüllen muss:
 
*Die Amplitudenkoeffizienten $a_\nu$ sind statistisch unabhängig &nbsp; &rArr; &nbsp;  $p_{\nu\mu} = {\rm Pr}(a_\nu = a_\mu)$ ist für alle $\nu$ identisch.<br>
 
*Die $M$ möglichen Koeffizienten  $a_\mu$ treten mit gleicher Wahrscheinlichkeit $p_\mu = 1/M$ auf.
 
  
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 1:}$&nbsp; Analysiert man einen zur Übertragung anstehenden deutschen Text auf der Basis von &nbsp;$M = 32$&nbsp; Zeichen:
 +
:$$\text{ a, ... , z, ä, ö, ü, ß, Leerzeichen, Interpunktion, keine Unterscheidung zwischen Groß&ndash; und Kleinschreibung },$$
 +
so ergibt sich der Entscheidungsgehalt &nbsp;$H_{\rm max} = 5 \ \rm bit/Symbol$.&nbsp; Aufgrund
 +
*der unterschiedlichen Häufigkeiten&nbsp; $($beispielsweise tritt &bdquo;e&rdquo; deutlich häufiger auf als &bdquo;u&rdquo;$)$&nbsp; und<br>
 +
*von statistischen Bindungen&nbsp; $($zum Beispiel folgt auf &bdquo;q&rdquo; der Buchstabe &bdquo;u&rdquo; viel öfters als &bdquo;e&rdquo;$)$
  
{{GraueBox|TEXT= 
 
$\text{Beispiel 1:}$&nbsp; Analysiert man einen zur Übertragung anstehenden deutschen Text auf der Basis von $M = 32$ Zeichen
 
:$$\text{(a, ... , z, ä, ö, ü, ß, Leerzeichen, Interpunktion, keine Unterscheidung zwischen Groß&ndash; und Kleinschreibung)},$$
 
so ergibt sich der Entscheidungsgehalt $H_{\rm max} = 5 \ \rm bit/Symbol$. Aufgrund
 
*der unterschiedlichen Häufigkeiten (beispielsweise tritt &bdquo;e&rdquo; deutlich häufiger auf als &bdquo;u&rdquo;) und<br>
 
*von statistischen Bindungen (zum Beispiel folgt auf &bdquo;q&rdquo; der Buchstabe &bdquo;u&rdquo; viel öfters als &bdquo;e&rdquo;)
 
  
 +
beträgt nach &nbsp;[https://de.wikipedia.org/wiki/Karl_K%C3%BCpfm%C3%BCller Karl Küpfmüller]&nbsp; die Entropie der deutschen Sprache nur &nbsp;$H = 1.3 \ \rm bit/Zeichen$.&nbsp; Daraus ergibt sich die relative Redundanz zu &nbsp;$r \approx (5 - 1.3)/5 = 74\%$.
  
beträgt nach [https://de.wikipedia.org/wiki/Karl_K%C3%BCpfm%C3%BCller Karl Küpfmüller] die Entropie der deutschen Sprache nur $H = 1.3 \ \rm bit/Zeichen$. Daraus ergibt sich die relative Redundanz zu $r \approx (5 - 1.3)/5 = 74\%$. Für englische Texte wurden von [https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon]  die Entropie mit $H = 1 \ \rm bit/Zeichen$ und die relative Redundanz mit $r \approx 80\%$ angegeben.}}
+
Für englische Texte hat &nbsp;[https://de.wikipedia.org/wiki/Claude_Shannon Claude Shannon]&nbsp; die Entropie mit &nbsp;$H = 1 \ \rm bit/Zeichen$&nbsp; und die relative Redundanz mit &nbsp;$r \approx 80\%$ angegeben.}}
  
  
 
== Quellencodierung &ndash; Kanalcodierung &ndash;  Übertragungscodierung ==
 
== Quellencodierung &ndash; Kanalcodierung &ndash;  Übertragungscodierung ==
 
<br>
 
<br>
Unter ''Codierung'' versteht man die Umsetzung der Quellensymbolfolge $\langle q_\nu \rangle$ mit Symbolumfang $M_q$ in eine Codesymbolfolge $\langle c_\nu \rangle$ mit dem Symbolumfang $M_c$. Meist wird durch die Codierung die in einem Digitalsignal enthaltene Redundanz manipuliert. Oft &ndash; aber nicht immer &ndash; sind $M_q$ und $M_c$ verschieden.<br>
+
Unter&nbsp; "Codierung"&nbsp; versteht man die Umsetzung der Quellensymbolfolge &nbsp;$\langle q_\nu \rangle$&nbsp; mit dem Symbolumfang &nbsp;$M_q$&nbsp; in eine Codesymbolfolge &nbsp;$\langle c_\nu \rangle$&nbsp; mit dem Symbolumfang &nbsp;$M_c$.&nbsp; Meist wird durch die Codierung die in einem Digitalsignal enthaltene Redundanz manipuliert.&nbsp; Oft &ndash; aber nicht immer &ndash; sind &nbsp;$M_q$&nbsp; und &nbsp;$M_c$&nbsp; verschieden.<br>
  
 
Man unterscheidet je nach Zielrichtung zwischen verschiedenen Arten von Codierung:
 
Man unterscheidet je nach Zielrichtung zwischen verschiedenen Arten von Codierung:
*Die Aufgabe der '''Quellencodierung''' ist die Redundanzreduktion zur Datenkomprimierung, wie sie beispielsweise in der Bildcodierung Anwendung findet. Durch Ausnutzung statistischer Bindungen zwischen den einzelnen Punkten eines Bildes bzw. zwischen den Helligkeitswerten eines Punktes zu verschiedenen Zeiten (bei Bewegtbildsequenzen) können Verfahren entwickelt werden, die bei nahezu gleicher (subjektiver) Bildqualität zu einer merklichen Verminderung der Datenmenge (gemessen in &bdquo;bit&rdquo; oder &bdquo;byte&rdquo;) führen. Ein einfaches Beispiel hierfür ist die ''differentielle Pulscodemodulation'' (DPCM).<br>
+
*Die Aufgabe der&nbsp; '''Quellencodierung'''&nbsp; ist die Redundanzreduktion zur Datenkomprimierung,&nbsp; wie sie beispielsweise in der Bildcodierung Anwendung findet.&nbsp; Durch Ausnutzung statistischer Bindungen zwischen den einzelnen Punkten eines Bildes bzw. zwischen den Helligkeitswerten eines Punktes zu verschiedenen Zeiten&nbsp; (bei Bewegtbildsequenzen)&nbsp; können Verfahren entwickelt werden,&nbsp; die bei nahezu gleicher&nbsp; (subjektiver)&nbsp; Bildqualität zu einer merklichen Verminderung der Datenmenge&nbsp; (gemessen in &bdquo;bit&rdquo; oder &bdquo;byte&rdquo;)&nbsp; führen. Ein einfaches Beispiel hierfür ist die&nbsp; "differentielle Pulscodemodulation''&nbsp; $\rm (DPCM)$.<br>
 
 
  
*Bei der '''Kanalcodierung''' erzielt man demgegenüber dadurch eine merkliche Verbesserung des Übertragungsverhaltens, dass eine beim Sender gezielt hinzugefügte Redundanz empfangsseitig zur Erkennung und Korrektur von Übertragungsfehlern genutzt wird. Solche Codes, deren wichtigste Vertreter Blockcodes, Faltungscodes und Turbo-Codes sind, haben besonders bei stark gestörten Kanälen eine große Bedeutung. Je größer die relative Redundanz des codierten Signals ist, desto besser sind die Korrektureigenschaften des Codes, allerdings bei verringerter Nutzdatenrate.
+
*Bei der&nbsp; '''Kanalcodierung'''&nbsp; erzielt man demgegenüber dadurch eine merkliche Verbesserung des Übertragungsverhaltens,&nbsp; dass eine beim Sender gezielt hinzugefügte Redundanz empfangsseitig zur Erkennung und Korrektur von Übertragungsfehlern genutzt wird.&nbsp; Solche Codes,&nbsp; deren wichtigste Vertreter Blockcodes, Faltungscodes und Turbo-Codes sind,&nbsp; haben besonders bei stark gestörten Kanälen eine große Bedeutung.&nbsp; Je größer die relative Redundanz des codierten Signals ist,&nbsp; desto besser sind die Korrektureigenschaften des Codes,&nbsp; allerdings bei verringerter Nutzdatenrate.
  
 +
*Eine&nbsp; '''Übertragungscodierung'''&nbsp; &ndash; häufig auch als&nbsp; "Leitungscodierung"&nbsp; bezeichnet &ndash;&nbsp; verwendet man,&nbsp; um das Sendesignal durch eine Umcodierung der Quellensymbole an die Spektraleigenschaften von Übertragungskanal und Empfangseinrichtungen anzupassen.&nbsp; Beispielsweise muss bei einem Kanal mit der Frequenzgangseigenschaft &nbsp;$H_{\rm K}(f=0) = 0$,&nbsp; über den demzufolge kein Gleichsignal übertragen werden kann,&nbsp; durch Übertragungscodierung sichergestellt werden,&nbsp; dass die Codesymbolfolge weder eine lange &nbsp;$\rm L$&ndash; noch eine lange &nbsp;$\rm H$&ndash;Folge beinhaltet.<br>
  
*Eine '''Übertragungscodierung''' &ndash; häufig auch als ''Leitungscodierung'' bezeichnet &ndash; verwendet man, um das Sendesignal durch eine Umcodierung der Quellensymbole an die spektralen Eigenschaften von Übertragungskanal und Empfangseinrichtungen anzupassen. Beispielsweise muss bei einem Kanal mit der Frequenzgangseigenschaft $H_{\rm K}(f=0) = 0$, über den kein Gleichsignal übertragen werden kann, durch Übertragungscodierung sichergestellt werden, dass die Codesymbolfolge weder eine lange $\rm L$&ndash; noch eine lange $\rm H$&ndash;Folge beinhaltet.<br>
 
  
 
+
Im vorliegenden Buch&nbsp; &bdquo;Digitalsignalübertragung&rdquo;&nbsp; beschäftigen wir uns ausschließlich mit diesem letzten,&nbsp; übertragungstechnischen Aspekt.  
Im vorliegenden Buch &bdquo;Digitalsignalübertragung&rdquo; beschäftigen wir uns ausschließlich mit diesem letzten, übertragungstechnischen Aspekt.  
+
*Der &nbsp;[[Kanalcodierung]]&nbsp; ist in unserem Lerntutorial ein eigenes Buch gewidmet.  
*Der [[Kanalcodierung]] ist in unserem Lerntutorial ein eigenes Buch gewidmet.  
+
*Die Quellencodierung wird im Buch&nbsp; [[Informationstheorie]]&nbsp; (Hauptkapitel 2)&nbsp; ausführlich behandelt.  
*Die Quellencodierung wird im Buch [[Informationstheorie]] (Hauptkapitel 2) ausführlich behandelt.  
+
*Auch die im Buch&nbsp; &bdquo;Beispiele von Nachrichtensystemen&rdquo;  beschriebene &nbsp;[[Beispiele_von_Nachrichtensystemen/Sprachcodierung|Sprachcodierung]]&nbsp; ist eine spezielle Form der Quellencodierung.<br>
*Auch die im Buch &bdquo;Beispiele von Nachrichtensystemen&rdquo;  beschriebene [[Beispiele_von_Nachrichtensystemen/Sprachcodierung|Sprachcodierung]] ist eine spezielle Form der Quellencodierung.<br>
 
  
  
 
== Systemmodell und Beschreibungsgrößen ==
 
== Systemmodell und Beschreibungsgrößen ==
 
<br>
 
<br>
Im Folgenden gehen wir stets von dem skizzierten Blockschaltbild und folgenden Vereinbarungen aus:  
+
Im Folgenden gehen wir stets von dem unten skizzierten Blockschaltbild und folgenden Vereinbarungen aus:  
 +
[[Datei:P_ID3136__Dig_T_2_1_S3_v3.png|right|frame|Blockschaltbild zur Beschreibung mehrstufiger und codierter Übertragungssysteme|class=fit]]
  
[[Datei:P_ID3136__Dig_T_2_1_S3_v3.png|center|frame|Blockschaltbild zur Beschreibung mehrstufiger und codierter Übertragungssysteme|class=fit]]
+
*Das digitale Quellensignal &nbsp;$q(t)$&nbsp; sei binär &nbsp;$(M_q = 2)$&nbsp; und redundanzfrei &nbsp;$(H_q = 1 \ \rm bit/Symbol)$.
  
*Das digitale Quellensignal $q(t)$ sei binär $(M_q = 2)$ und redundanzfrei $(H_q = 1 \ \rm bit/Symbol)$.
+
*Mit der Symboldauer &nbsp;$T_q$&nbsp; ergibt sich für die Symbolrate der Quelle:
*Mit der Symboldauer $T_q$ ergibt sich für die Symbolrate der Quelle:
 
 
:$$R_q = {H_{q}}/{T_q}=  {1}/{T_q}\hspace{0.05cm}.$$
 
:$$R_q = {H_{q}}/{T_q}=  {1}/{T_q}\hspace{0.05cm}.$$
*Wegen $M_q = 2$ bezeichnen wir im Folgenden $T_q$ auch als die Bitdauer und $R_q$ als die Bitrate.  
+
*Wegen &nbsp;$M_q = 2$&nbsp; bezeichnen wir im Folgenden &nbsp;$T_q$&nbsp; auch als die&nbsp; "Bitdauer" und &nbsp;$R_q$&nbsp; als die&nbsp; "Bitrate".
*Für den Vergleich von Übertragungssystemen mit unterschiedlicher Codierung werden $T_q$ und $R_q$  stets als konstant angenommen. <br>''Hinweis:'' In späteren Kapiteln verwenden wir hierfür $T_{\rm B}$ und $R_{\rm B}$.<br>
+
*Das Codersignal $c(t)$ und auch das Sendesignal $s(t)$ nach der Impulsformung mit $g_s(t)$ besitzen die Stufenzahl $M_c$, die Symboldauer $T_c$ und die Symbolrate $1/M_c$. Die äquivalente Bitrate beträgt
+
*Für den Vergleich von Übertragungssystemen mit unterschiedlicher Codierung werden &nbsp;$T_q$&nbsp; und &nbsp;$R_q$&nbsp; stets als konstant angenommen.&nbsp; <u>Hinweis:</u>&nbsp; In späteren Kapiteln verwenden wir hierfür &nbsp;$T_{\rm B}$&nbsp; und &nbsp;$R_{\rm B}$.<br>
:$$R_c = {{\rm log_2} (M_c)}/{T_c} \hspace{0.05cm}.$$
+
 
*Es gilt stets $R_c \ge R_q$, wobei das Gleichheitszeichen nur bei den [[Digitalsignal%C3%BCbertragung/Redundanzfreie_Codierung#Blockweise_und_symbolweise_Codierung|redundanzfreien Codes]] $(r_c = 0)$ gültig ist. Andernfalls erhält man für die relative Coderedundanz:
+
*Das Codersignal &nbsp;$c(t)$&nbsp; und nach der Impulsformung mit &nbsp;$g_s(t)$&nbsp; auch das Sendesignal &nbsp;$s(t)$&nbsp; besitzen die Stufenzahl &nbsp;$M_c$, die Symboldauer &nbsp;$T_c$&nbsp; und die Symbolrate &nbsp;$1/T_c$. Die äquivalente Bitrate beträgt
 +
:$$R_c = {{\rm log_2} (M_c)}/{T_c} \ge R_q\hspace{0.05cm}.$$
 +
*Das Gleichheitszeichen gilt nur bei den &nbsp;[[Digitalsignal%C3%BCbertragung/Redundanzfreie_Codierung#Blockweise_und_symbolweise_Codierung|redundanzfreien Codes]]&nbsp; $(r_c = 0)$.  
 +
*Andernfalls erhält man für die relative Coderedundanz:
 
:$$r_c =({R_c - R_q})/{R_c} = 1 - R_q/{R_c} \hspace{0.05cm}.$$
 
:$$r_c =({R_c - R_q})/{R_c} = 1 - R_q/{R_c} \hspace{0.05cm}.$$
  
 +
<u>Hinweise zur Nomenklatur:</u>
 +
#Im Zusammenhang mit Übertragungscodes gibt &nbsp;$R_c$&nbsp; in unserem Lerntutorial stets die äquivalente Bitrate des Codersignals an.&nbsp;
 +
#Diese hat ebenso wie die Quellenbitrate &nbsp;$R_q$&nbsp; die Einheit &bdquo;bit/s&rdquo;.
 +
#Insbesondere in der Literatur zur Kanalcodierung bezeichnet man dagegen mit &nbsp;$R_c$&nbsp; oft die dimensionslose Coderate &nbsp;$1 - r_c$.
 +
#$R_c = 1 $&nbsp; gibt dann einen redundanzfreien Code an,&nbsp; während &nbsp;$R_c = 1/3 $&nbsp; einen Code mit der relativen Redundanz &nbsp;$r_c = 2/3 $&nbsp; kennzeichnet.
  
<i>Hinweise zur Nomenklatur:</i>
 
*Im Zusammenhang mit den Übertragungscodes gibt $R_c$ in unserem Lerntutorial stets die äquivalente Bitrate des Codersignals hat ebenso wie die Quellenbitrate $R_q$ die Einheit &bdquo;bit/s&rdquo;.
 
*Insbesondere in der Literatur zur Kanalcodierung wird dagegen mit $R_c$ häufig die dimensionslose Coderate $1 - r_c$ bezeichnet. $R_c = 1 $ gibt dann einen redundanzfreien Code an, während $R_c = 1/3 $ einen Code mit der relativen Redundanz $r_c = 1/3 $ kennzeichnet.
 
  
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 2:}$&nbsp; Bei den so genannten&nbsp; "4B3T&ndash;Codes" werden
 +
*jeweils vier Binärsymbole &nbsp;$(m_q = 4, \ M_q= 2)$&nbsp;
 +
*durch drei Ternärsymbole &nbsp;$(m_c = 3, \ M_c= 3)$&nbsp;
  
{{GraueBox|TEXT= 
+
 
$\text{Beispiel 2:}$&nbsp; Bei den so genannten 4B3T&ndash;Codes werden jeweils vier Binärsymbole $(m_q = 4, \ M_q= 2)$ durch drei Ternärsymbole$(m_c = 3, \ M_c= 3)$ dargestellt. Wegen $4 \cdot T_q = 3 \cdot T_c$ gilt:
+
dargestellt.&nbsp; Wegen &nbsp;$4 \cdot T_q = 3 \cdot T_c$&nbsp; gilt:
 
:$$R_q = {1}/{T_q}, \hspace{0.1cm} R_c = { {\rm log_2} (3)} \hspace{-0.05cm} /{T_c}
 
:$$R_q = {1}/{T_q}, \hspace{0.1cm} R_c = { {\rm log_2} (3)} \hspace{-0.05cm} /{T_c}
 
  = {3/4 \cdot {\rm log_2} (3)} \hspace{-0.05cm}/{T_q}\hspace{0.3cm}\Rightarrow
 
  = {3/4 \cdot {\rm log_2} (3)} \hspace{-0.05cm}/{T_q}\hspace{0.3cm}\Rightarrow
 
  \hspace{0.3cm}r_c =3/4\cdot {\rm log_2} (3) \hspace{-0.05cm}- \hspace{-0.05cm}1 \approx 15.9\, \%
 
  \hspace{0.3cm}r_c =3/4\cdot {\rm log_2} (3) \hspace{-0.05cm}- \hspace{-0.05cm}1 \approx 15.9\, \%
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
Genauere Informationen zu den 4B3T-Codes finden Sie im [[Digitalsignal%C3%BCbertragung/Blockweise_Codierung_mit_4B3T-Codes#Allgemeine_Beschreibung_von_Blockcodes|gleichnamigen Kapitel ]].}}<br>
+
Genauere Informationen zu den 4B3T-Codes finden Sie im &nbsp;[[Digitalsignalübertragung/Blockweise_Codierung_mit_4B3T-Codes|gleichnamigen Kapitel ]].}}<br>
  
  
 
== AKF–Berechnung eines Digitalsignals ==
 
== AKF–Berechnung eines Digitalsignals ==
 
<br>
 
<br>
Zur Vereinfachung der Schreibweise wird im Folgenden $M_c = M$ und $T_c = T$ gesetzt. Damit kann für das Sendesignal $s(t)$ bei einer zeitlich unbegrenzten Nachrichtenfolge mit $a_\nu \in \{ a_1,$ ... , $a_M\}$ geschrieben werden:
+
Zur Vereinfachung der Schreibweise wird im Folgenden &nbsp;$M_c = M$&nbsp; und &nbsp;$T_c = T$&nbsp; gesetzt.&nbsp; Damit kann für das Sendesignal &nbsp;$s(t)$&nbsp; bei einer zeitlich unbegrenzten Nachrichtenfolge mit &nbsp;$a_\nu \in \{ a_1,$ ... , $a_M\}$&nbsp; geschrieben werden:
:$$s(t) = \sum_{\nu = -\infty}^{+\infty} a_\nu \cdot g_s ( t - \nu \cdot T) \hspace{0.05cm}.$$
 
Diese Signaldarstellung  beinhaltet sowohl die Quellenstatistik (Amplitudenkoeffizienten $a_\nu$) als auch die Sendeimpulsform $g_s(t)$. Die Grafik zeigt zwei binäre bipolare Sendesignale $s_{\rm G}(t)$ und $s_{\rm R}(t)$ mit gleichen Amplitudenkoeffizienten $a_\nu$, die sich somit  lediglich durch den Sendegrundimpuls $g_s(t)$ unterscheiden.
 
 
 
 
[[Datei:P_ID1305__Dig_T_2_1_S4_v2.png|right|frame|Zwei verschiedene binäre bipolare Sendesignale|class=fit]]
 
[[Datei:P_ID1305__Dig_T_2_1_S4_v2.png|right|frame|Zwei verschiedene binäre bipolare Sendesignale|class=fit]]
  
Man erkennt aus dieser Darstellung, dass ein Digitalsignal im Allgemeinen nichtstationär ist:
+
:$$s(t) = \sum_{\nu = -\infty}^{+\infty} a_\nu \cdot g_s ( t - \nu \cdot T) \hspace{0.05cm}.$$
*Beim Sendesignal $s_{\rm G}(t)$ mit schmalen Gaußimpulsen ist die [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Station.C3.A4re_Zufallsprozesse|Nichtstationarität]] offensichtlich, da zum Beispiel bei Vielfachen von $T$ die Varianz $\sigma_s^2 = s_0^2$ ist, während dazwischen $\sigma_s^2 \approx 0$.<br>
+
Diese Signaldarstellung  beinhaltet sowohl die Quellenstatistik $($Amplitudenkoeffizienten &nbsp;$a_\nu$)&nbsp; als auch die Sendeimpulsform &nbsp;$g_s(t)$.&nbsp; Die Grafik zeigt zwei binäre bipolare Sendesignale &nbsp;$s_{\rm G}(t)$&nbsp; und &nbsp;$s_{\rm R}(t)$&nbsp; mit gleichen Amplitudenkoeffizienten &nbsp;$a_\nu$,&nbsp; die sich somit  lediglich durch den Sendegrundimpuls &nbsp;$g_s(t)$&nbsp; unterscheiden.
  
 +
Man erkennt aus dieser Darstellung,&nbsp; dass ein Digitalsignal im Allgemeinen nichtstationär ist:
 +
*Beim Sendesignal &nbsp;$s_{\rm G}(t)$&nbsp; mit schmalen Gaußimpulsen ist die &nbsp;[[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Station.C3.A4re_Zufallsprozesse|Nichtstationarität]]&nbsp; offensichtlich,&nbsp; da zum Beispiel bei Vielfachen von &nbsp;$T$&nbsp; die Varianz &nbsp;$\sigma_s^2 = s_0^2$&nbsp; ist,&nbsp; während genau dazwischen &nbsp; $\sigma_s^2 \approx 0$&nbsp; gilt.<br>
  
*Auch das Signal $s_{\rm R}(t)$ mit NRZ&ndash;rechteckförmigen Impulsen ist im strengen Sinne nichtstationär, da sich hier die Momente an den Bitgrenzen gegenüber allen anderen Zeitpunkten unterscheiden. Beispielsweise gilt $s_{\rm R}(t = \pm T/2)=0$.
+
*Auch das Signal &nbsp;$s_{\rm R}(t)$&nbsp; mit NRZ&ndash;rechteckförmigen Impulsen ist im strengen Sinne nichtstationär,&nbsp; da sich hier die Momente an den Bitgrenzen gegenüber allen anderen Zeitpunkten unterscheiden.&nbsp; Im gezeichneten Beispiel gilt &nbsp;$s_{\rm R}(t = \pm T/2)=0$.
 
<br clear=all>
 
<br clear=all>
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Einen Zufallsprozess, dessen Momente $m_k(t) =  m_k(t+ \nu \cdot T)$ sich periodisch mit $T$ wiederholen, bezeichnet man als '''zyklostationär'''; $k$ und $\nu$ besitzen bei dieser impliziten Definition ganzzahlige Zahlenwerte.}}
+
$\text{Definition:}$&nbsp; Einen Zufallsprozess,&nbsp; dessen Momente &nbsp;$m_k(t) =  m_k(t+ \nu \cdot T)$&nbsp; sich periodisch mit &nbsp;$T$&nbsp; wiederholen,&nbsp; bezeichnet man als&nbsp; '''zyklostationär'''; <br>$k$&nbsp; und &nbsp;$\nu$&nbsp; besitzen bei dieser impliziten Definition ganzzahlige Zahlenwerte.}}
  
  
Viele der für [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Ergodische_Zufallsprozesse |ergodische Prozesse]] gültigen Regeln kann man mit nur geringen Einschränkungen auch auf ''zykloergodische'' (und damit ebenfalls auf ''zyklostationäre'') Prozesse anwenden. Insbesondere gilt für die [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Zufallsprozesse_.281.29|Autokorrelationsfunktion]] (AKF) solcher Zufallsprozesse mit Mustersignal $s(t)$:
+
Viele der Regeln für &nbsp;[[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Ergodische_Zufallsprozesse |ergodische Prozesse]]&nbsp; kann man mit nur geringen Einschränkungen auch auf&nbsp; "zykloergodische"&nbsp; (und damit&nbsp; "zyklostationäre")&nbsp; Prozesse anwenden.  
 +
 
 +
*Insbesondere gilt für die &nbsp;[[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Zufallsprozesse_.281.29|Autokorrelationsfunktion]]&nbsp; $\rm (AKF)$&nbsp; solcher Zufallsprozesse mit Mustersignal &nbsp;$s(t)$:
 
:$$\varphi_s(\tau) = {\rm E}\big [s(t) \cdot s(t + \tau)\big ] \hspace{0.05cm}.$$
 
:$$\varphi_s(\tau) = {\rm E}\big [s(t) \cdot s(t + \tau)\big ] \hspace{0.05cm}.$$
Mit obiger Gleichung des Sendesignals kann die AKF als Zeitmittelwert wie folgt geschrieben werden:
+
*Mit obiger Gleichung des Sendesignals kann die AKF als Zeitmittelwert auch wie folgt geschrieben werden:
 
:$$\varphi_s(\tau) =  \sum_{\lambda = -\infty}^{+\infty}\frac{1}{T}
 
:$$\varphi_s(\tau) =  \sum_{\lambda = -\infty}^{+\infty}\frac{1}{T}
 
\cdot  \lim_{N \to \infty} \frac{1}{2N +1} \cdot \sum_{\nu =
 
\cdot  \lim_{N \to \infty} \frac{1}{2N +1} \cdot \sum_{\nu =
Zeile 159: Zeile 171:
 
\int_{-\infty}^{+\infty}  g_s ( t ) \cdot g_s ( t + \tau -
 
\int_{-\infty}^{+\infty}  g_s ( t ) \cdot g_s ( t + \tau -
 
\lambda \cdot T)\,{\rm d} t \hspace{0.05cm}.$$
 
\lambda \cdot T)\,{\rm d} t \hspace{0.05cm}.$$
 
+
*Da die Grenzwert&ndash;, Integral&ndash; und Summenbildung miteinander vertauscht werden darf,&nbsp; kann mit den Substitutionen &nbsp;
Da die Grenzwert&ndash;, Integral&ndash; und Summenbildung miteinander vertauscht werden darf, kann mit den Substitutionen $N = T_{\rm M}/(2T)$, $\lambda = \kappa- \nu$ und $t - \nu \cdot T \to T$ hierfür auch geschrieben werden:
+
:$$N = T_{\rm M}/(2T), \hspace{0.5cm}\lambda = \kappa- \nu,\hspace{0.5cm}t - \nu \cdot T \to T$$
 +
:hierfür auch geschrieben werden:
 
:$$\varphi_s(\tau) = \lim_{T_{\rm M} \to \infty}\frac{1}{T_{\rm M}}
 
:$$\varphi_s(\tau) = \lim_{T_{\rm M} \to \infty}\frac{1}{T_{\rm M}}
 
   \cdot
 
   \cdot
Zeile 168: Zeile 181:
 
a_\kappa \cdot  g_s ( t + \tau - \kappa \cdot T )  
 
a_\kappa \cdot  g_s ( t + \tau - \kappa \cdot T )  
 
\,{\rm d} t \hspace{0.05cm}.$$
 
\,{\rm d} t \hspace{0.05cm}.$$
<br>Nun werden zur Abkürzung folgende Größen eingeführt:
+
Nun werden zur Abkürzung folgende Größen eingeführt:
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Die '''diskrete AKF der Amplitudenkoeffizienten''' liefert Aussagen über die linearen statistischen Bindungen der Amplitudenkoeffizienten $a_{\nu}$ und $a_{\nu + \lambda}$ und besitzt keine Einheit:
+
$\text{Definition:}$&nbsp;  
 +
*Die&nbsp; '''diskrete AKF der Amplitudenkoeffizienten'''&nbsp; liefert Aussagen über die linearen statistischen Bindungen der Amplitudenkoeffizienten &nbsp;$a_{\nu}$&nbsp; und &nbsp;$a_{\nu + \lambda}$&nbsp; und besitzt keine Einheit:
 
:$$\varphi_a(\lambda) =  \lim_{N \to \infty} \frac{1}{2N +1} \cdot
 
:$$\varphi_a(\lambda) =  \lim_{N \to \infty} \frac{1}{2N +1} \cdot
 
\sum_{\nu = -\infty}^{+\infty} a_\nu \cdot a_{\nu + \lambda}
 
\sum_{\nu = -\infty}^{+\infty} a_\nu \cdot a_{\nu + \lambda}
\hspace{0.05cm}.$$}}
+
\hspace{0.05cm}.$$
 
 
  
{{BlaueBox|TEXT= 
+
*Die '''Energie&ndash;AKF''' des Grundimpulses ist ähnlich definiert wie die allgemeine&nbsp; (Leistungs&ndash;)&nbsp;AKF.&nbsp; Sie wird mit einem Punkt gekennzeichnet:  
$\text{Definition:}$&nbsp; Die '''Energie&ndash;AKF''' des Grundimpulses ist ähnlich definiert wie die allgemeine (Leistungs&ndash;)AKF. Sie wird mit einem Punkt gekennzeichnet. Da $g_s(t)$ [[Signaldarstellung/Klassifizierung_von_Signalen#Energiebegrenzte_und_leistungsbegrenzte_Signale| energiebegrenzt]] ist, kann auf die Division durch $T_{\rm M}$  und den Grenzübergang verzichtet werden:
 
 
:$$\varphi^{^{\bullet} }_{gs}(\tau) =
 
:$$\varphi^{^{\bullet} }_{gs}(\tau) =
 
\int_{-\infty}^{+\infty} g_s ( t ) \cdot  g_s ( t +
 
\int_{-\infty}^{+\infty} g_s ( t ) \cdot  g_s ( t +
\tau)\,{\rm d} t \hspace{0.05cm}.$$}}
+
\tau)\,{\rm d} t \hspace{0.05cm}.$$
 
+
:&rArr; &nbsp; Da &nbsp;$g_s(t)$&nbsp; [[Signaldarstellung/Klassifizierung_von_Signalen#Energiebegrenzte_und_leistungsbegrenzte_Signale| energiebegrenzt]]&nbsp; ist, kann auf die Division durch &nbsp;$T_{\rm M}$&nbsp;  und den Grenzübergang verzichtet werden.
  
{{BlaueBox|TEXT= 
+
*Für die '''Autokorrelationsfunktion eines Digitalsignals''' &nbsp;$s(t)$&nbsp; gilt allgemein:
$\text{Definition:}$&nbsp; Für die '''Autokorrelationsfunktion eines Digitalsignals''' $s(t)$ gilt allgemein:
 
 
:$$\varphi_s(\tau) =  \sum_{\lambda = -\infty}^{+\infty}{1}/{T}
 
:$$\varphi_s(\tau) =  \sum_{\lambda = -\infty}^{+\infty}{1}/{T}
 
\cdot \varphi_a(\lambda)\cdot\varphi^{^{\bullet} }_{gs}(\tau -
 
\cdot \varphi_a(\lambda)\cdot\varphi^{^{\bullet} }_{gs}(\tau -
 
\lambda \cdot T)\hspace{0.05cm}.$$
 
\lambda \cdot T)\hspace{0.05cm}.$$
Das Signal $s(t)$ kann dabei binär oder mehrstufig, unipolar oder bipolar sowie redundanzfrei oder redundant (leitungscodiert) sein. Die Impulsform wird durch die Energie&ndash;AKF berücksichtigt.}}
+
:&rArr; &nbsp;  $s(t)$&nbsp; kann dabei binär oder mehrstufig, unipolar oder bipolar sowie redundanzfrei oder redundant (leitungscodiert) sein.  
 +
:&rArr; &nbsp; Die Impulsform wird durch die Energie&ndash;AKF berücksichtigt.}}
  
  
Beschreibt das Digitalsignal $s(t)$ einen Spannungsverlauf, so hat die Energie&ndash;AKF des Grundimpulses $g_s(t)$ die Einheit $\rm V^2s$ und $\varphi_s(\tau)$ die Einheit $\rm V^2$, jeweils bezogen auf den Widerstand $1 \ \rm \Omega$.
+
<u>Anmerkungen:</u>
 +
*Beschreibt das Digitalsignal &nbsp;$s(t)$&nbsp; einen Spannungsverlauf,  
 +
:*so hat die Energie&ndash;AKF des Grundimpulses &nbsp;$g_s(t)$&nbsp; die Einheit &nbsp;$\rm V^2s$&nbsp;
 +
:*und die Autokorrelationsfunktion &nbsp;$\varphi_s(\tau)$&nbsp; des Digitalsignals &nbsp;$s(t)$&nbsp; die Einheit &nbsp;$\rm V^2$, jeweils bezogen auf den Widerstand &nbsp;$1 \ \rm \Omega$.
  
 
+
*Im strengen Sinne der Systemtheorie müsste man die AKF der Amplitudenkoeffizienten wie folgt definieren:
<i>Anmerkung:</i> Im strengen Sinne der Systemtheorie müsste man die AKF der Amplitudenkoeffizienten wie folgt definieren:
 
 
:$$\varphi_{a , \hspace{0.08cm}\delta}(\tau) =  \sum_{\lambda = -\infty}^{+\infty}
 
:$$\varphi_{a , \hspace{0.08cm}\delta}(\tau) =  \sum_{\lambda = -\infty}^{+\infty}
 
\varphi_a(\lambda)\cdot \delta(\tau - \lambda \cdot
 
\varphi_a(\lambda)\cdot \delta(\tau - \lambda \cdot
 
T)\hspace{0.05cm}.$$
 
T)\hspace{0.05cm}.$$
Damit würde sich die obige Gleichung wie folgt darstellen:
+
 
 +
:&rArr; &nbsp; Damit würde sich die obige Gleichung wie folgt darstellen:
 
:$$\varphi_s(\tau) ={1}/{T} \cdot \varphi_{a , \hspace{0.08cm}
 
:$$\varphi_s(\tau) ={1}/{T} \cdot \varphi_{a , \hspace{0.08cm}
 
\delta}(\tau)\star \varphi^{^{\bullet}}_{gs}(\tau - \lambda \cdot
 
\delta}(\tau)\star \varphi^{^{\bullet}}_{gs}(\tau - \lambda \cdot
Zeile 205: Zeile 220:
 
\varphi_a(\lambda)\cdot \varphi^{^{\bullet}}_{gs}(\tau - \lambda
 
\varphi_a(\lambda)\cdot \varphi^{^{\bullet}}_{gs}(\tau - \lambda
 
\cdot T)\hspace{0.05cm}.$$
 
\cdot T)\hspace{0.05cm}.$$
Zur einfacheren Darstellung wird im Folgenden die diskrete AKF der Amplitudenkoeffizienten  
+
:&rArr; &nbsp; Zur einfacheren Darstellung wird im Folgenden die diskrete AKF der Amplitudenkoeffizienten &nbsp; &#8658; &nbsp; $\varphi_a(\lambda)$&nbsp; ohne diese Diracfunktionen geschrieben.<br>
&nbsp; &#8658; &nbsp; $\varphi_a(\lambda)$
 
ohne diese Diracfunktionen geschrieben.<br>
 
  
  
 
== LDS–Berechnung eines Digitalsignals ==
 
== LDS–Berechnung eines Digitalsignals ==
 
<br>
 
<br>
Die Entsprechungsgröße zur Autokorrelationsfunktion (AKF) eines Zufallssignals &nbsp; &rArr; &nbsp; $\varphi_s(\tau)$ ist im Frequenzbereich das [[Stochastische_Signaltheorie/Leistungsdichtespektrum_(LDS)#Theorem_von_Wiener-Chintchine|Leistungsdichtespektrum]] (LDS) &nbsp; &rArr; &nbsp; ${\it \Phi}_s(f)$, das mit der AKF über das Fourierintegral in einem festen Bezug steht:<br>
+
Die Entsprechungsgröße zur Autokorrelationsfunktion&nbsp; $\rm (AKF)$&nbsp; eines Zufallssignals &nbsp; &rArr; &nbsp; $\varphi_s(\tau)$&nbsp; ist im Frequenzbereich das&nbsp; [[Stochastische_Signaltheorie/Leistungsdichtespektrum_(LDS)#Theorem_von_Wiener-Chintchine|Leistungsdichtespektrum]]&nbsp; $\rm (LDS)$&nbsp; &nbsp; &rArr; &nbsp; ${\it \Phi}_s(f)$,&nbsp; das mit der AKF über das Fourierintegral in einem festen Bezug steht:<br>
 
:$$\varphi_s(\tau) \hspace{0.4cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet \hspace{0.4cm}
 
:$$\varphi_s(\tau) \hspace{0.4cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet \hspace{0.4cm}
 
   {\it \Phi}_s(f)  =  \int_{-\infty}^{+\infty} \varphi_s(\tau) \cdot
 
   {\it \Phi}_s(f)  =  \int_{-\infty}^{+\infty} \varphi_s(\tau) \cdot
 
   {\rm e}^{- {\rm j}\hspace{0.05cm} 2 \pi  f \hspace{0.02cm} \tau}
 
   {\rm e}^{- {\rm j}\hspace{0.05cm} 2 \pi  f \hspace{0.02cm} \tau}
 
   \,{\rm d} \tau  \hspace{0.05cm}.$$
 
   \,{\rm d} \tau  \hspace{0.05cm}.$$
Berücksichtigt man den Zusammenhang zwischen Energie&ndash;AKF und Energiespektrum,
+
*Berücksichtigt man den Zusammenhang zwischen Energie&ndash;AKF und Energiespektrum,
 
:$$\varphi^{^{\hspace{0.05cm}\bullet}}_{gs}(\tau) \hspace{0.4cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet \hspace{0.4cm}
 
:$$\varphi^{^{\hspace{0.05cm}\bullet}}_{gs}(\tau) \hspace{0.4cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet \hspace{0.4cm}
 
   {\it \Phi}^{^{\hspace{0.08cm}\bullet}}_{gs}(f)  = |G_s(f)|^2
 
   {\it \Phi}^{^{\hspace{0.08cm}\bullet}}_{gs}(f)  = |G_s(f)|^2
 
   \hspace{0.05cm},$$
 
   \hspace{0.05cm},$$
sowie den [[Signaldarstellung/Gesetzm%C3%A4%C3%9Figkeiten_der_Fouriertransformation#Verschiebungssatz|Verschiebungssatz]], so kann das Leistungsdichtespektrum des Digitalsignals $s(t)$ in folgender Weise dargestellt werden:
+
:sowie den &nbsp;[[Signaldarstellung/Gesetzm%C3%A4%C3%9Figkeiten_der_Fouriertransformation#Verschiebungssatz|Verschiebungssatz]],&nbsp; so kann das Leistungsdichtespektrum des Digitalsignals &nbsp;$s(t)$&nbsp; in folgender Weise dargestellt werden:
 
:$${\it \Phi}_s(f)  =    \sum_{\lambda =
 
:$${\it \Phi}_s(f)  =    \sum_{\lambda =
 
-\infty}^{+\infty}{1}/{T} \cdot \varphi_a(\lambda)\cdot {\it
 
-\infty}^{+\infty}{1}/{T} \cdot \varphi_a(\lambda)\cdot {\it
Zeile 228: Zeile 241:
 
-\infty}^{+\infty}\varphi_a(\lambda)\cdot \cos (
 
-\infty}^{+\infty}\varphi_a(\lambda)\cdot \cos (
 
2 \pi  f \lambda  T)\hspace{0.05cm}.$$
 
2 \pi  f \lambda  T)\hspace{0.05cm}.$$
Hierbei ist berücksichtigt, dass ${\it \Phi}_s(f)$  und$|G_s(f)|^2$ reellwertig sind und gleichzeitig $\varphi_a(-\lambda) =\varphi_a(\lambda)$ gilt.<br><br>
+
:Hierbei ist berücksichtigt,&nbsp; dass &nbsp;${\it \Phi}_s(f)$&nbsp; und &nbsp;$|G_s(f)|^2$&nbsp; reellwertig sind und gleichzeitig &nbsp;$\varphi_a(-\lambda) =\varphi_a(+\lambda)$&nbsp; gilt.<br><br>
Definiert man nun die '''spektrale Leistungsdichte der Amplitudenkoeffizienten''' zu  
+
*Definiert man nun die&nbsp; '''spektrale Leistungsdichte der Amplitudenkoeffizienten'''&nbsp; zu  
 
:$${\it \Phi}_a(f) =  \sum_{\lambda =
 
:$${\it \Phi}_a(f) =  \sum_{\lambda =
 
-\infty}^{+\infty}\varphi_a(\lambda)\cdot {\rm e}^{- {\rm
 
-\infty}^{+\infty}\varphi_a(\lambda)\cdot {\rm e}^{- {\rm
Zeile 236: Zeile 249:
 
1}^{\infty}\varphi_a(\lambda)\cdot\cos ( 2 \pi  f  
 
1}^{\infty}\varphi_a(\lambda)\cdot\cos ( 2 \pi  f  
 
\lambda T) \hspace{0.05cm},$$
 
\lambda T) \hspace{0.05cm},$$
so erhält man den folgenden Ausdruck:
+
:so erhält man den folgenden Ausdruck:
 
:$${\it \Phi}_s(f) =  {\it \Phi}_a(f) \cdot  {1}/{T} \cdot
 
:$${\it \Phi}_s(f) =  {\it \Phi}_a(f) \cdot  {1}/{T} \cdot
 
|G_s(f)|^2 \hspace{0.05cm}.$$
 
|G_s(f)|^2 \hspace{0.05cm}.$$
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Fazit:}$&nbsp; Das Leistungsdichtespektrum ${\it \Phi}_s(f)$ eines Digitalsignals $s(t)$ kann als Produkt zweier Funktionen dargestellt werden::
+
$\text{Fazit:}$&nbsp; Das Leistungsdichtespektrum &nbsp;${\it \Phi}_s(f)$&nbsp; eines Digitalsignals &nbsp;$s(t)$&nbsp; kann als Produkt zweier Funktionen dargestellt werden:
*Der erste Term ${\it \Phi}_a(f)$ ist dimensionslos und beschreibt die spektrale Formung des Sendesignals durch ''die statistischen Bindungen der Quelle''.<br>
+
#Der erste Term &nbsp;${\it \Phi}_a(f)$&nbsp; ist dimensionslos und beschreibt die spektrale Formung des Sendesignals durch die statistischen Bindungen der Quelle.<br>
*Dagegen berücksichtigt $\vert G_s(f) \vert^2$ die ''spektrale Formung durch den Sendegrundimpuls'' $g_s(t)$. Je schmaler dieser ist, desto breiter ist $\vert G_s(f) \vert^2$ und um so größer ist damit der Bandbreitenbedarf.<br>
+
#Dagegen berücksichtigt &nbsp;$\vert G_s(f) \vert^2$&nbsp; die spektrale Formung durch den Sendegrundimpuls &nbsp;$g_s(t)$.&nbsp;
*Das Energiespektrum hat die Einheit $\rm V^2s/Hz$ und  das Leistungsdichtespektrum &ndash; aufgrund der Division durch den Symbolabstand $T$ &ndash; die Einheit $\rm V^2/Hz$. Beide Angaben gelten wieder nur  für den Widerstand $1 \ \rm \Omega$.}}
+
#Je schmaler dieser ist,&nbsp; desto breiter ist &nbsp;$\vert G_s(f) \vert^2$&nbsp; und um so größer ist damit der Bandbreitenbedarf.<br>
 +
#Das Energiespektrum hat die Einheit &nbsp;$\rm V^2s/Hz$&nbsp; und  das Leistungsdichtespektrum &ndash; aufgrund der Division durch den Symbolabstand &nbsp;$T$&nbsp; &ndash; die Einheit &nbsp;$\rm V^2/Hz$.  
 +
#Beide Angaben gelten wieder nur  für den Widerstand &nbsp;$1 \ \rm \Omega$.}}
  
  
 
== AKF und LDS bei bipolaren Binärsignalen ==
 
== AKF und LDS bei bipolaren Binärsignalen ==
 
<br>
 
<br>
Die bisherigen Ergebnisse werden nun an Beispielen verdeutlicht. Ausgehend von <i>binären bipolaren Amplitudenkoeffizienten</i> $a_\nu \in \{-1, +1\}$  erhält man, falls keine  Bindungen zwischen den einzelnen Amplitudenkoeffizienten $a_\nu$ bestehen:<br>
+
Die bisherigen Ergebnisse werden nun an Beispielen verdeutlicht.&nbsp; Ausgehend von binären bipolaren Amplitudenkoeffizienten &nbsp;$a_\nu \in \{-1, +1\}$&nbsp; erhält man,&nbsp; falls keine  Bindungen zwischen den einzelnen Amplitudenkoeffizienten &nbsp;$a_\nu$&nbsp; bestehen:<br>
 +
[[Datei:P_ID1306__Dig_T_2_1_S6_v2.png|right|frame|Signalausschnitt, AKF und LDS bei binärer bipolarer Signalisierung|class=fit]]
 +
 
 
:$$\varphi_a(\lambda)  =  \left\{ \begin{array}{c} 1   
 
:$$\varphi_a(\lambda)  =  \left\{ \begin{array}{c} 1   
 
  \\ 0 \\  \end{array} \right.\quad
 
  \\ 0 \\  \end{array} \right.\quad
Zeile 258: Zeile 275:
 
{1}/{T} \cdot \varphi^{^{\bullet}}_{gs}(\tau)\hspace{0.05cm}.$$
 
{1}/{T} \cdot \varphi^{^{\bullet}}_{gs}(\tau)\hspace{0.05cm}.$$
  
Die Grafik zeigt zwei Signalausschnitte jeweils mit Rechteckimpulsen $g_s(t)$, die dementsprechend zu einer dreieckförmigen AKF und zu einem $\rm si^2$&ndash;förmigen Leistungsdichtespektrum (LDS) führen.
+
Die Grafik zeigt zwei Signalausschnitte jeweils mit Rechteckimpulsen &nbsp;$g_s(t)$,&nbsp; die dementsprechend zu einer dreieckförmigen Autokorrelationsfunktion&nbsp; $\rm (AKF)$&nbsp; und zu einem &nbsp;$\rm si^2$&ndash;förmigen Leistungsdichtespektrum&nbsp; $\rm (LDS)$&nbsp; führen.
[[Datei:P_ID1306__Dig_T_2_1_S6_v2.png|right|frame|Signalausschnitt, AKF und LDS bei binärer bipolarer Signalisierung|class=fit]]
+
*Die linken Bilder beschreiben eine NRZ&ndash;Signalisierung.&nbsp; Das heißt: &nbsp; Die Breite &nbsp;$T_{\rm S}$&nbsp; des Grundimpulses ist gleich dem Abstand &nbsp;$T$&nbsp; zweier Sendeimpulse&nbsp; (Quellensymbole).  
*Die linken Bilder beschreiben eine NRZ&ndash;Signalisierung.  Das heißt: Die Breite $T_{\rm S}$ des Grundimpulses ist gleich dem Abstand $T$ zweier Sendeimpulse (Quellensymbole).  
+
 
*Dagegen gelten die rechten Bilder für einen RZ&ndash;Impuls mit dem Tastverhältnis $T_{\rm S}/T = 0.5$.  
+
*Dagegen gelten die rechten Bilder für einen RZ&ndash;Impuls mit dem Tastverhältnis &nbsp;$T_{\rm S}/T = 0.5$.  
  
  
 
Man erkennt aus diesen Darstellungen:
 
Man erkennt aus diesen Darstellungen:
  
*Bei NRZ&ndash;Rechteckimpulsen ergibt sich für die (auf den Widerstand $1 \ \rm \Omega$ bezogene) Sendeleistung $P_{\rm S} = \varphi_s(\tau = 0) = s_0^2$ und die dreieckförmige AKF ist auf den Bereich $|\tau| \le T_{\rm S}= T$ beschränkt.<br>
+
#Bei NRZ&ndash;Rechteckimpulsen ergibt sich für die&nbsp; (auf den Widerstand &nbsp;$1 \ \rm \Omega$&nbsp; bezogene)&nbsp; Sendeleistung &nbsp;$P_{\rm S} = \varphi_s(\tau = 0) = s_0^2$.<br>
 +
#Die dreieckförmige AKF ist auf den Bereich &nbsp;$|\tau| \le T_{\rm S}= T$&nbsp; beschränkt.<br>
 +
#Das LDS &nbsp;${\it \Phi}_s(f)$&nbsp; als die Fouriertransformierte von &nbsp;$\varphi_s(\tau)$&nbsp; ist &nbsp;$\rm si^2$&ndash;förmig mit äquidistanten Nullstellen im Abstand &nbsp;$1/T$.
 +
#Die Fläche unter der LDS&ndash;Kurve ergibt wieder die Sendeleistung &nbsp;$P_{\rm S} = s_0^2$.<br>
  
  
*Das LDS ${\it \Phi}_s(f)$ als die Fouriertransformierte von $\varphi_s(\tau)$ ist $\rm si^2$&ndash;förmig mit äquidistanten Nullstellen im Abstand $1/T$. Die Fläche unter der LDS&ndash;Kurve ergibt wiederum die Sendeleistung $P_{\rm S} = s_0^2$.<br>
+
Im Fall der RZ&ndash;Signalisierung&nbsp; (rechte Rubrik)&nbsp; ist die dreieckförmige AKF gegenüber dem linken Bild in Höhe und Breite jeweils um den Faktor &nbsp;$T_{\rm S}/T = 0.5$&nbsp; kleiner.<br>
 +
<br clear=all>
  
 +
{{BlaueBox|TEXT= 
 +
$\text{Fazit:}$&nbsp; Vergleicht man die beiden Leistungsdichtespektren&nbsp; $($untere Bilder$)$,&nbsp; so erkennt man für &nbsp;$T_{\rm S}/T = 0.5$&nbsp; $($RZ&ndash;Impuls$)$&nbsp; gegenüber &nbsp;$T_{\rm S}/T = 1$&nbsp; $($NRZ&ndash;Impuls$)$
 +
*eine Verkleinerung in der Höhe um den Faktor &nbsp;$4$&nbsp;
 +
*und eine Verbreiterung um den Faktor &nbsp;$2$.
  
*Im Fall der RZ&ndash;Signalisierung (rechte Rubrik) ist die dreieckförmige AKF gegenüber dem linken Bild in Höhe und Breite jeweils um den Faktor $T_{\rm S}/T = 0.5$ kleiner.<br>
 
<br clear=all>
 
  
{{BlaueBox|TEXT= 
+
Die Fläche&nbsp; $($Leistung$)$&nbsp; ist somit halb so groß,&nbsp; da in der Hälfte der Zeit &nbsp;$s(t) = 0$&nbsp; gilt.}}
$\text{Fazit:}$&nbsp; Vergleicht man die beiden Leistungsdichtespektren (untere Bilder), so erkennt man für $T_{\rm S}/T = 0.5$ (RZ&ndash;Impuls) gegenüber $T_{\rm S}/T = 1$ (NRZ&ndash;Impuls) eine Verkleinerung in der Höhe um den Faktor $4$ und eine Verbreiterung um den Faktor $2$. Die Fläche (Leistung) ist somit halb so groß, da in der Hälfte der Zeit $s(t) = 0$ gilt.}}
 
  
  
 
== AKF und LDS bei unipolaren Binärsignalen ==
 
== AKF und LDS bei unipolaren Binärsignalen ==
 
<br>
 
<br>
Wir gehen weiterhin von NRZ&ndash; bzw. RZ&ndash;Rechteckimpulsen aus. Die binären Amplitudenkoeffizienten seien aber nun unipolar: &nbsp; $a_\nu \in \{0, 1\}$. <br>Dann gilt für die diskrete AKF der Amplitudenkoeffizienten:
+
Wir gehen weiterhin von NRZ&ndash; bzw. RZ&ndash;Rechteckimpulsen aus.&nbsp; Die binären Amplitudenkoeffizienten seien aber nun unipolar: &nbsp; $a_\nu \in \{0, 1\}$.&nbsp; Dann gilt für die diskrete AKF der Amplitudenkoeffizienten:
 +
[[Datei:P_ID1307__Dig_T_2_1_S7_100.png|right|frame|Signalausschnitt,&nbsp; AKF und LDS bei binärer unipolarer Signalisierung|class=fit]]
 +
 
 
:$$\varphi_a(\lambda)  =  \left\{ \begin{array}{c} m_2 = 0.5  \\
 
:$$\varphi_a(\lambda)  =  \left\{ \begin{array}{c} m_2 = 0.5  \\
 
  \\ m_1^2 = 0.25 \\  \end{array} \right.\quad
 
  \\ m_1^2 = 0.25 \\  \end{array} \right.\quad
Zeile 288: Zeile 312:
 
\end{array}$$
 
\end{array}$$
  
Vorausgesetzt sind hier gleichwahrscheinliche Amplitudenkoeffizienten &nbsp; &#8658; &nbsp; ${\rm Pr}(a_\nu =0) = {\rm Pr}(a_\nu =1) = 0.5$ ohne statistische Bindungen, so dass sowohl der [[Stochastische_Signaltheorie/Momente_einer_diskreten_Zufallsgröße#Quadratischer_Mittelwert_.E2.80.93_Varianz_.E2.80.93_Streuung|quadratische Mittelwert]] $m_2$ (Leistung) als auch der [[Stochastische_Signaltheorie/Momente_einer_diskreten_Zufallsgröße#Linearer_Mittelwert_-_Gleichanteil|lineare Mittelwert]] $m_1$ (Gleichanteil) jeweils $0.5$ sind.<br>
+
Vorausgesetzt sind gleichwahrscheinliche Amplitudenkoeffizienten &nbsp; &#8658; &nbsp; ${\rm Pr}(a_\nu =0) = {\rm Pr}(a_\nu =1) = 0.5$&nbsp; ohne statistische Bindungen,&nbsp; so dass sowohl das &nbsp;[[Stochastische_Signaltheorie/Momente_einer_diskreten_Zufallsgröße#Moment_zweiter_Ordnung_.E2.80.93_Leistung_.E2.80.93_Varianz_.E2.80.93_Streuung|zweite Moment]]&nbsp; $m_2$&nbsp; (Leistung)&nbsp; als auch der &nbsp;[[Stochastische_Signaltheorie/Momente_einer_diskreten_Zufallsgröße#Moment_erster_Ordnung_.E2.80.93_Linearer_Mittelwert_.E2.80.93_Gleichanteil|lineare Mittelwert]]&nbsp; $m_1$&nbsp; (Gleichanteil)&nbsp; jeweils &nbsp;$0.5$&nbsp; sind.<br>
  
Die Grafik zeigt einen Signalausschnitt, die AKF und das LDS mit unipolaren Amplitudenkoeffizienten,
+
Die Grafik zeigt einen Signalausschnitt,&nbsp; die AKF und das LDS mit unipolaren Amplitudenkoeffizienten,
[[Datei:P_ID1307__Dig_T_2_1_S7_100.png|right|frame|Signalausschnitt, AKF und LDS bei binärer unipolarer Signalisierung|class=fit]]
+
*links für rechteckförmige NRZ&ndash;Impulse &nbsp;$(T_{\rm S}/T = 1)$,&nbsp; und<br>
*links für rechteckförmige NRZ&ndash;Impulse ($T_{\rm S}/T = 1$), und<br>
+
*rechts für RZ&ndash;Impulse mit dem Tastverhältnis &nbsp;$T_{\rm S}/T = 0.5$.
*rechts für RZ&ndash;Impulse mit dem Tastverhältnis $T_{\rm S}/T = 0.5$.
 
  
  
Es gibt folgende Unterschiede gegenüber  [[Digitalsignalübertragung/Grundlagen_der_codierten_Übertragung#AKF_und_LDS_bei_bipolaren_Bin.C3.A4rsignalen|bipolarer Signalisierung]]:
+
Es gibt folgende Unterschiede gegenüber  &nbsp;[[Digitalsignalübertragung/Grundlagen_der_codierten_Übertragung#AKF_und_LDS_bei_bipolaren_Bin.C3.A4rsignalen|bipolarer Signalisierung]]:
*Durch die Addition der unendlich vielen Dreieckfunktionen im Abstand $T$, alle mit gleicher Höhe, ergibt sich für die AKF in der linken Grafik (NRZ) ein konstanter Gleichanteil $s_0^2/4$.<br>
+
*Durch die Addition der unendlich vielen Dreieckfunktionen im Abstand &nbsp;$T$,&nbsp; alle mit gleicher Höhe,&nbsp; ergibt sich für die AKF in der linken Grafik&nbsp; (NRZ)&nbsp; ein konstanter Gleichanteil &nbsp;$s_0^2/4$.
  
 +
*Daneben verbleibt im Bereich &nbsp;$|\tau| \le T_{\rm S}$&nbsp; ein einzelnes Dreieck ebenfalls mit Höhe &nbsp;$s_0^2/4$,&nbsp; das im Leistungsdichtespektrum (LDS) zum &nbsp;$\rm si^2$&ndash;förmigen Verlauf führt&nbsp; (blaue Kurve).<br>
  
*Daneben verbleibt im Bereich $|\tau| \le T_{\rm S}$ eine einzelne Dreieckfunktion ebenfalls mit der Höhe $s_0^2/4$, die im Leistungsdichtespektrum (LDS) zum kontinuierlichen, $\rm si^2$&ndash;förmigen Verlauf führt (blaue Kurve).<br>
+
*Der Gleichanteil in der AKF hat im LDS eine Diracfunktion bei der Frequenz &nbsp;$f = 0$&nbsp; mit dem Gewicht &nbsp;$s_0^2/4$ zur Folge.&nbsp; Dadurch wird der LDS&ndash;Wert &nbsp;${\it \Phi}_s(f=0)$&nbsp; unendlich groß.<br>
  
  
*Der Gleichanteil in der AKF bewirkt im LDS eine Diracfunktion bei der Frequenz $f = 0$ mit dem Gewicht $s_0^2/4$. Es ist zu bemerken, dass dadurch der LDS&ndash;Wert ${\it \Phi}_s(f=0)$ unendlich groß wird.<br>
+
Aus der rechten Grafik&nbsp; &ndash; gültig für &nbsp;$T_{\rm S}/T = 0.5$ &ndash;&nbsp; erkennt man,&nbsp; dass sich nun die AKF aus einem periodischen Dreiecksverlauf&nbsp; (im mittleren Bereich gestrichelt eingezeichnet)&nbsp; und zusätzlich noch aus einem einmaligen Dreieck im Bereich &nbsp;$|\tau| \le T_{\rm S} = T/2$&nbsp; mit Höhe &nbsp;$s_0^2/8$&nbsp; zusammensetzt.
 
 
 
 
*Aus der rechten Grafik &ndash; gültig für $T_{\rm S}/T = 0.5$ &ndash; erkennt man, dass sich nun die AKF aus einem periodischen Dreiecksverlauf (im mittleren Bereich gestrichelt eingezeichnet) und zusätzlich noch aus einem einmaligen Dreieck im Bereich $|\tau| \le T_{\rm S} = T/2$ mit Höhe $s_0^2/8$ zusammensetzt.
 
 
 
 
 
*Diese einmalige Dreieckfunktion führt zum kontinuierlichen, $\rm si^2$&ndash;förmigen Anteil (blaue Kurve) von ${\it \Phi}_s(f)$ mit der ersten Nullstelle bei $1/T_{\rm S} = 2/T$.
 
  
 +
*Diese einmalige Dreieckfunktion führt zum kontinuierlichen &nbsp;$\rm si^2$&ndash;förmigen Anteil&nbsp; (blaue Kurve)&nbsp; von &nbsp;${\it \Phi}_s(f)$&nbsp; mit der ersten Nullstelle bei &nbsp;$1/T_{\rm S} = 2/T$.
 
   
 
   
*Dagegen führt die periodische Dreieckfunktion nach den Gesetzmäßigkeiten der [[Signaldarstellung/Fourierreihe#Allgemeine_Beschreibung| Fourierreihe]] zu einer unendlichen Summe von Diracfunktionen mit unterschiedlichen Gewichten im Abstand $1/T$  (rot gezeichnet).<br>
+
*Dagegen führt die periodische Dreieckfunktion nach den Gesetzmäßigkeiten der &nbsp;[[Signaldarstellung/Fourierreihe#Allgemeine_Beschreibung| Fourierreihe]]&nbsp; zu einer unendlichen Summe von Diracfunktionen mit unterschiedlichen Gewichten im Abstand &nbsp;$1/T$&nbsp; (rot gezeichnet).<br>
  
 +
*Die Gewichte der Diracfunktionen sind proportional zum kontinuierlichen (blauen) LDS&ndash;Anteil. Das maximale Gewicht &nbsp;$s_0^2/8$&nbsp; besitzt die Diraclinie bei &nbsp;$f = 0$. Dagegen sind die Diraclinien bei &nbsp;$\pm 2/T$&nbsp; und Vielfachen davon nicht vorhanden bzw. besitzen jeweils das Gewicht &nbsp;$0$, da hier auch der kontinuierliche LDS&ndash;Anteil Nullstellen hat.<br>
  
*Die Gewichte der Diracfunktionen sind proportional zum kontinuierlichen (blauen) LDS&ndash;Anteil. Das maximale Gewicht $s_0^2/8$ besitzt die Diraclinie bei $f = 0$. Dagegen sind die Diraclinien bei $\pm 2/T$ und Vielfachen davon nicht vorhanden bzw. besitzen jeweils das Gewicht $0$, da hier auch der kontinuierliche LDS&ndash;Anteil Nullstellen besitzt.<br>
 
  
 
+
{{BlaueBox|TEXT= 
<i>Hinweis</i>:  
+
$\text{Hinweis:}$&nbsp; 
*Unipolare Amplitudenkoeffizienten treten zum Beispiel bei <i>optischen Übertragungssystemen</i> auf.  
+
*Unipolare Amplitudenkoeffizienten treten zum Beispiel bei <u>optischen Übertragungssystemen</u>&nbsp; auf.  
*Trotzdem beschränken wir uns in späteren Kapiteln meist auf die bipolare Signalisierung.
+
*In späteren Kapiteln  beschränken wir uns aber meist auf die bipolare Signalisierung.}}
  
  

Aktuelle Version vom 14. Mai 2022, 14:41 Uhr

# ÜBERBLICK ZUM ZWEITEN HAUPTKAPITEL #


Das zweite Hauptkapitel behandelt die so genannte  Übertragungscodierung,  die in der Literatur manchmal auch als  »Leitungscodierung«  bezeichnet wird.  Dabei wird durch gezieltes Hinzufügen von Redundanz eine Anpassung des digitalen Sendesignals an die Eigenschaften des Übertragungskanals erreicht. 

Im Einzelnen werden behandelt:

  • einige grundlegende Begriffe der Informationstheorie wie  »Informationsgehalt«  und  »Entropie«,
  • die  »Autokorrelationsfunktion«  und die  »Leistungsdichtespektren«  von Digitalsignalen,
  • die  »redundanzfreie Codierung«,  die zu einem nichtbinären Sendesignal führt,
  • die Berechnung von  »Symbol– und Bitfehlerwahrscheinlichkeit«  bei mehrstufigen Systemen,
  • die so genannten  »4B3T–Codes«  als ein wichtiges Beispiel von blockweiser Codierung,  und
  • die  »Pseudoternärcodes«,  die jeweils eine symbolweise Codierung realisieren.


Die Beschreibung erfolgt durchgehend im Basisband und es werden weiterhin einige vereinfachende Annahmen  (unter Anderem:  keine Impulsinterferenzen)  getroffen.  Weitere Informationen zum Thema sowie Aufgaben, Simulationen und Programmierübungen finden Sie im

  • Kapitel 15:   Codierte und mehrstufige Übertragung, Programm "cod"


des Praktikums „Simulationsmethoden in der Nachrichtentechnik”.  Diese (ehemalige) LNT-Lehrveranstaltung an der TU München basiert auf

  • dem Lehrsoftwarepaket  LNTsim  ⇒  Link verweist auf die ZIP-Version des Programms und
  • dieser  Praktikumsanleitung  ⇒  Link verweist auf die PDF-Version; Kapitel 15:   Seite 337-362.


Informationsgehalt – Entropie – Redundanz


Wir gehen von einer  $M$–stufigen digitalen Nachrichtenquelle aus,  die folgendes Quellensignal abgibt:

$$q(t) = \sum_{(\nu)} a_\nu \cdot {\rm \delta} ( t - \nu \cdot T)\hspace{0.3cm}{\rm mit}\hspace{0.3cm}a_\nu \in \{ a_1, \text{...} \ , a_\mu , \text{...} \ , a_{ M}\}.$$
  • Die Quellensymbolfolge  $\langle q_\nu \rangle$  ist also auf die Folge  $\langle a_\nu \rangle$  der dimensionslosen Amplitudenkoeffizienten abgebildet.
  • Vereinfachend wird zunächst für die zeitliche Laufvariable  $\nu = 1$, ... , $N$  gesetzt, während der Vorratsindex  $\mu$  stets Werte zwischen  $1$  und $M$  annehmen kann.


Ist das  $\nu$–te Folgenelement gleich  $a_\mu$, so kann dessen  Informationsgehalt  mit der Wahrscheinlichkeit  $p_{\nu\mu} = {\rm Pr}(a_\nu = a_\mu)$  wie folgt berechnet werden:

$$I_\nu = \log_2 \ (1/p_{\nu \mu})= {\rm ld} \ (1/p_{\nu \mu}) \hspace{1cm}\text{(Einheit: bit)}\hspace{0.05cm}.$$

Der Logarithmus zur Basis 2   ⇒   $\log_2(x)$  wird oft auch mit  ${\rm ld}(x)$   ⇒   "Logarithmus dualis"  bezeichnet.  Bei der numerischen Auswertung wird die Hinweiseinheit  „bit”  (von:  "binary digit" ) hinzugefügt.  Mit dem Zehner–Logarithmus  $\lg(x)$  bzw. dem natürlichen Logarithmus  $\ln(x)$  gilt:

$${\rm log_2}(x) = \frac{{\rm lg}(x)}{{\rm lg}(2)}= \frac{{\rm ln}(x)}{{\rm ln}(2)}\hspace{0.05cm}.$$

Nach dieser auf  Claude E. Shannon  zurückgehenden Definition von Information ist der Informationsgehalt eines Symbols umso größer,  je kleiner dessen Auftrittswahrscheinlichkeit ist.

$\text{Definition:}$  Die  Entropie  ist der mittlere Informationsgehalt eines Folgenelements  (Symbols).  Diese wichtige informationstheoretische Größe lässt sich als Zeitmittelwert wie folgt ermitteln:

$$H = \lim_{N \to \infty} \frac{1}{N} \cdot \sum_{\nu = 1}^N I_\nu = \lim_{N \to \infty} \frac{1}{N} \cdot \sum_{\nu = 1}^N \hspace{0.1cm}{\rm log_2}\hspace{0.05cm} \ (1/p_{\nu \mu}) \hspace{1cm}\text{(Einheit: bit)}\hspace{0.05cm}.$$

Natürlich kann die Entropie auch durch Scharmittelung  (über den Symbolvorrat)  berechnet werden.


Hinweise:

  • Sind die Folgenelemente  $a_\nu$  statistisch voneinander unabhängig,  so sind die Auftrittswahrscheinlichkeiten  $p_{\nu\mu} = p_{\mu}$  unabhängig von  $\nu$  und man erhält in diesem Sonderfall für die Entropie:
$$H = \sum_{\mu = 1}^M p_{ \mu} \cdot {\rm log_2}\hspace{0.1cm} \ (1/p_{\mu})\hspace{0.05cm}.$$
  • Bestehen dagegen statistische Bindungen zwischen benachbarten Amplitudenkoeffizienten  $a_\nu$,  so muss zur Entropieberechnung die kompliziertere Gleichung entsprechend obiger Definition herangezogen werden.


$\text{Definitionen:}$ 

  • Der Maximalwert der Entropie   ⇒   Entscheidungsgehalt  ergibt sich immer dann,  wenn die  $M$  Auftrittswahrscheinlichkeiten  (der statistisch unabhängigen Symbole)  alle gleich sind  $(p_{\mu} = 1/M)$:
$$H_{\rm max} = \sum_{\mu = 1}^M \hspace{0.1cm}\frac{1}{M} \cdot {\rm log_2} (M) = {\rm log_2} (M) \cdot \sum_{\mu = 1}^M \hspace{0.1cm} \frac{1}{M} = {\rm log_2} (M) \hspace{1cm}\text{(Einheit: bit)}\hspace{0.05cm}.$$
  • Die  relative Redundanz  ist dann der folgende Quotient:
$$r = \frac{H_{\rm max}-H}{H_{\rm max} }.$$
  • Da stets  $0 \le H \le H_{\rm max}$  gilt,  kann die relative Redundanz Werte zwischen  $0$  und  $1$  (einschließlich dieser Grenzwerte) annehmen.


Aus der Herleitung dieser Beschreibungsgrößen ist offensichtlich, dass ein redundanzfreies Digitalsignal  $(r=0)$  folgende Eigenschaften erfüllen muss:

  • Die Amplitudenkoeffizienten  $a_\nu$  sind statistisch unabhängig   ⇒   $p_{\nu\mu} = {\rm Pr}(a_\nu = a_\mu)$  ist für alle  $\nu$  identisch.
  • Die  $M$  möglichen Koeffizienten  $a_\mu$  treten mit gleicher Wahrscheinlichkeit  $p_\mu = 1/M$  auf.


$\text{Beispiel 1:}$  Analysiert man einen zur Übertragung anstehenden deutschen Text auf der Basis von  $M = 32$  Zeichen:

$$\text{ a, ... , z, ä, ö, ü, ß, Leerzeichen, Interpunktion, keine Unterscheidung zwischen Groß– und Kleinschreibung },$$

so ergibt sich der Entscheidungsgehalt  $H_{\rm max} = 5 \ \rm bit/Symbol$.  Aufgrund

  • der unterschiedlichen Häufigkeiten  $($beispielsweise tritt „e” deutlich häufiger auf als „u”$)$  und
  • von statistischen Bindungen  $($zum Beispiel folgt auf „q” der Buchstabe „u” viel öfters als „e”$)$


beträgt nach  Karl Küpfmüller  die Entropie der deutschen Sprache nur  $H = 1.3 \ \rm bit/Zeichen$.  Daraus ergibt sich die relative Redundanz zu  $r \approx (5 - 1.3)/5 = 74\%$.

Für englische Texte hat  Claude Shannon  die Entropie mit  $H = 1 \ \rm bit/Zeichen$  und die relative Redundanz mit  $r \approx 80\%$ angegeben.


Quellencodierung – Kanalcodierung – Übertragungscodierung


Unter  "Codierung"  versteht man die Umsetzung der Quellensymbolfolge  $\langle q_\nu \rangle$  mit dem Symbolumfang  $M_q$  in eine Codesymbolfolge  $\langle c_\nu \rangle$  mit dem Symbolumfang  $M_c$.  Meist wird durch die Codierung die in einem Digitalsignal enthaltene Redundanz manipuliert.  Oft – aber nicht immer – sind  $M_q$  und  $M_c$  verschieden.

Man unterscheidet je nach Zielrichtung zwischen verschiedenen Arten von Codierung:

  • Die Aufgabe der  Quellencodierung  ist die Redundanzreduktion zur Datenkomprimierung,  wie sie beispielsweise in der Bildcodierung Anwendung findet.  Durch Ausnutzung statistischer Bindungen zwischen den einzelnen Punkten eines Bildes bzw. zwischen den Helligkeitswerten eines Punktes zu verschiedenen Zeiten  (bei Bewegtbildsequenzen)  können Verfahren entwickelt werden,  die bei nahezu gleicher  (subjektiver)  Bildqualität zu einer merklichen Verminderung der Datenmenge  (gemessen in „bit” oder „byte”)  führen. Ein einfaches Beispiel hierfür ist die  "differentielle Pulscodemodulation  $\rm (DPCM)$.
  • Bei der  Kanalcodierung  erzielt man demgegenüber dadurch eine merkliche Verbesserung des Übertragungsverhaltens,  dass eine beim Sender gezielt hinzugefügte Redundanz empfangsseitig zur Erkennung und Korrektur von Übertragungsfehlern genutzt wird.  Solche Codes,  deren wichtigste Vertreter Blockcodes, Faltungscodes und Turbo-Codes sind,  haben besonders bei stark gestörten Kanälen eine große Bedeutung.  Je größer die relative Redundanz des codierten Signals ist,  desto besser sind die Korrektureigenschaften des Codes,  allerdings bei verringerter Nutzdatenrate.
  • Eine  Übertragungscodierung  – häufig auch als  "Leitungscodierung"  bezeichnet –  verwendet man,  um das Sendesignal durch eine Umcodierung der Quellensymbole an die Spektraleigenschaften von Übertragungskanal und Empfangseinrichtungen anzupassen.  Beispielsweise muss bei einem Kanal mit der Frequenzgangseigenschaft  $H_{\rm K}(f=0) = 0$,  über den demzufolge kein Gleichsignal übertragen werden kann,  durch Übertragungscodierung sichergestellt werden,  dass die Codesymbolfolge weder eine lange  $\rm L$– noch eine lange  $\rm H$–Folge beinhaltet.


Im vorliegenden Buch  „Digitalsignalübertragung”  beschäftigen wir uns ausschließlich mit diesem letzten,  übertragungstechnischen Aspekt.

  • Der  Kanalcodierung  ist in unserem Lerntutorial ein eigenes Buch gewidmet.
  • Die Quellencodierung wird im Buch  Informationstheorie  (Hauptkapitel 2)  ausführlich behandelt.
  • Auch die im Buch  „Beispiele von Nachrichtensystemen” beschriebene  Sprachcodierung  ist eine spezielle Form der Quellencodierung.


Systemmodell und Beschreibungsgrößen


Im Folgenden gehen wir stets von dem unten skizzierten Blockschaltbild und folgenden Vereinbarungen aus:

Blockschaltbild zur Beschreibung mehrstufiger und codierter Übertragungssysteme
  • Das digitale Quellensignal  $q(t)$  sei binär  $(M_q = 2)$  und redundanzfrei  $(H_q = 1 \ \rm bit/Symbol)$.
  • Mit der Symboldauer  $T_q$  ergibt sich für die Symbolrate der Quelle:
$$R_q = {H_{q}}/{T_q}= {1}/{T_q}\hspace{0.05cm}.$$
  • Wegen  $M_q = 2$  bezeichnen wir im Folgenden  $T_q$  auch als die  "Bitdauer" und  $R_q$  als die  "Bitrate".
  • Für den Vergleich von Übertragungssystemen mit unterschiedlicher Codierung werden  $T_q$  und  $R_q$  stets als konstant angenommen.  Hinweis:  In späteren Kapiteln verwenden wir hierfür  $T_{\rm B}$  und  $R_{\rm B}$.
  • Das Codersignal  $c(t)$  und nach der Impulsformung mit  $g_s(t)$  auch das Sendesignal  $s(t)$  besitzen die Stufenzahl  $M_c$, die Symboldauer  $T_c$  und die Symbolrate  $1/T_c$. Die äquivalente Bitrate beträgt
$$R_c = {{\rm log_2} (M_c)}/{T_c} \ge R_q\hspace{0.05cm}.$$
  • Das Gleichheitszeichen gilt nur bei den  redundanzfreien Codes  $(r_c = 0)$.
  • Andernfalls erhält man für die relative Coderedundanz:
$$r_c =({R_c - R_q})/{R_c} = 1 - R_q/{R_c} \hspace{0.05cm}.$$

Hinweise zur Nomenklatur:

  1. Im Zusammenhang mit Übertragungscodes gibt  $R_c$  in unserem Lerntutorial stets die äquivalente Bitrate des Codersignals an. 
  2. Diese hat ebenso wie die Quellenbitrate  $R_q$  die Einheit „bit/s”.
  3. Insbesondere in der Literatur zur Kanalcodierung bezeichnet man dagegen mit  $R_c$  oft die dimensionslose Coderate  $1 - r_c$.
  4. $R_c = 1 $  gibt dann einen redundanzfreien Code an,  während  $R_c = 1/3 $  einen Code mit der relativen Redundanz  $r_c = 2/3 $  kennzeichnet.


$\text{Beispiel 2:}$  Bei den so genannten  "4B3T–Codes" werden

  • jeweils vier Binärsymbole  $(m_q = 4, \ M_q= 2)$ 
  • durch drei Ternärsymbole  $(m_c = 3, \ M_c= 3)$ 


dargestellt.  Wegen  $4 \cdot T_q = 3 \cdot T_c$  gilt:

$$R_q = {1}/{T_q}, \hspace{0.1cm} R_c = { {\rm log_2} (3)} \hspace{-0.05cm} /{T_c} = {3/4 \cdot {\rm log_2} (3)} \hspace{-0.05cm}/{T_q}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}r_c =3/4\cdot {\rm log_2} (3) \hspace{-0.05cm}- \hspace{-0.05cm}1 \approx 15.9\, \% \hspace{0.05cm}.$$

Genauere Informationen zu den 4B3T-Codes finden Sie im  gleichnamigen Kapitel .



AKF–Berechnung eines Digitalsignals


Zur Vereinfachung der Schreibweise wird im Folgenden  $M_c = M$  und  $T_c = T$  gesetzt.  Damit kann für das Sendesignal  $s(t)$  bei einer zeitlich unbegrenzten Nachrichtenfolge mit  $a_\nu \in \{ a_1,$ ... , $a_M\}$  geschrieben werden:

Zwei verschiedene binäre bipolare Sendesignale
$$s(t) = \sum_{\nu = -\infty}^{+\infty} a_\nu \cdot g_s ( t - \nu \cdot T) \hspace{0.05cm}.$$

Diese Signaldarstellung beinhaltet sowohl die Quellenstatistik $($Amplitudenkoeffizienten  $a_\nu$)  als auch die Sendeimpulsform  $g_s(t)$.  Die Grafik zeigt zwei binäre bipolare Sendesignale  $s_{\rm G}(t)$  und  $s_{\rm R}(t)$  mit gleichen Amplitudenkoeffizienten  $a_\nu$,  die sich somit lediglich durch den Sendegrundimpuls  $g_s(t)$  unterscheiden.

Man erkennt aus dieser Darstellung,  dass ein Digitalsignal im Allgemeinen nichtstationär ist:

  • Beim Sendesignal  $s_{\rm G}(t)$  mit schmalen Gaußimpulsen ist die  Nichtstationarität  offensichtlich,  da zum Beispiel bei Vielfachen von  $T$  die Varianz  $\sigma_s^2 = s_0^2$  ist,  während genau dazwischen   $\sigma_s^2 \approx 0$  gilt.
  • Auch das Signal  $s_{\rm R}(t)$  mit NRZ–rechteckförmigen Impulsen ist im strengen Sinne nichtstationär,  da sich hier die Momente an den Bitgrenzen gegenüber allen anderen Zeitpunkten unterscheiden.  Im gezeichneten Beispiel gilt  $s_{\rm R}(t = \pm T/2)=0$.


$\text{Definition:}$  Einen Zufallsprozess,  dessen Momente  $m_k(t) = m_k(t+ \nu \cdot T)$  sich periodisch mit  $T$  wiederholen,  bezeichnet man als  zyklostationär;
$k$  und  $\nu$  besitzen bei dieser impliziten Definition ganzzahlige Zahlenwerte.


Viele der Regeln für  ergodische Prozesse  kann man mit nur geringen Einschränkungen auch auf  "zykloergodische"  (und damit  "zyklostationäre")  Prozesse anwenden.

  • Insbesondere gilt für die  Autokorrelationsfunktion  $\rm (AKF)$  solcher Zufallsprozesse mit Mustersignal  $s(t)$:
$$\varphi_s(\tau) = {\rm E}\big [s(t) \cdot s(t + \tau)\big ] \hspace{0.05cm}.$$
  • Mit obiger Gleichung des Sendesignals kann die AKF als Zeitmittelwert auch wie folgt geschrieben werden:
$$\varphi_s(\tau) = \sum_{\lambda = -\infty}^{+\infty}\frac{1}{T} \cdot \lim_{N \to \infty} \frac{1}{2N +1} \cdot \sum_{\nu = -N}^{+N} a_\nu \cdot a_{\nu + \lambda} \cdot \int_{-\infty}^{+\infty} g_s ( t ) \cdot g_s ( t + \tau - \lambda \cdot T)\,{\rm d} t \hspace{0.05cm}.$$
  • Da die Grenzwert–, Integral– und Summenbildung miteinander vertauscht werden darf,  kann mit den Substitutionen  
$$N = T_{\rm M}/(2T), \hspace{0.5cm}\lambda = \kappa- \nu,\hspace{0.5cm}t - \nu \cdot T \to T$$
hierfür auch geschrieben werden:
$$\varphi_s(\tau) = \lim_{T_{\rm M} \to \infty}\frac{1}{T_{\rm M}} \cdot \int_{-T_{\rm M}/2}^{+T_{\rm M}/2} \sum_{\nu = -\infty}^{+\infty} \sum_{\kappa = -\infty}^{+\infty} a_\nu \cdot g_s ( t - \nu \cdot T ) \cdot a_\kappa \cdot g_s ( t + \tau - \kappa \cdot T ) \,{\rm d} t \hspace{0.05cm}.$$

Nun werden zur Abkürzung folgende Größen eingeführt:

$\text{Definition:}$ 

  • Die  diskrete AKF der Amplitudenkoeffizienten  liefert Aussagen über die linearen statistischen Bindungen der Amplitudenkoeffizienten  $a_{\nu}$  und  $a_{\nu + \lambda}$  und besitzt keine Einheit:
$$\varphi_a(\lambda) = \lim_{N \to \infty} \frac{1}{2N +1} \cdot \sum_{\nu = -\infty}^{+\infty} a_\nu \cdot a_{\nu + \lambda} \hspace{0.05cm}.$$
  • Die Energie–AKF des Grundimpulses ist ähnlich definiert wie die allgemeine  (Leistungs–) AKF.  Sie wird mit einem Punkt gekennzeichnet:
$$\varphi^{^{\bullet} }_{gs}(\tau) = \int_{-\infty}^{+\infty} g_s ( t ) \cdot g_s ( t + \tau)\,{\rm d} t \hspace{0.05cm}.$$
⇒   Da  $g_s(t)$  energiebegrenzt  ist, kann auf die Division durch  $T_{\rm M}$  und den Grenzübergang verzichtet werden.
  • Für die Autokorrelationsfunktion eines Digitalsignals  $s(t)$  gilt allgemein:
$$\varphi_s(\tau) = \sum_{\lambda = -\infty}^{+\infty}{1}/{T} \cdot \varphi_a(\lambda)\cdot\varphi^{^{\bullet} }_{gs}(\tau - \lambda \cdot T)\hspace{0.05cm}.$$
⇒   $s(t)$  kann dabei binär oder mehrstufig, unipolar oder bipolar sowie redundanzfrei oder redundant (leitungscodiert) sein.
⇒   Die Impulsform wird durch die Energie–AKF berücksichtigt.


Anmerkungen:

  • Beschreibt das Digitalsignal  $s(t)$  einen Spannungsverlauf,
  • so hat die Energie–AKF des Grundimpulses  $g_s(t)$  die Einheit  $\rm V^2s$ 
  • und die Autokorrelationsfunktion  $\varphi_s(\tau)$  des Digitalsignals  $s(t)$  die Einheit  $\rm V^2$, jeweils bezogen auf den Widerstand  $1 \ \rm \Omega$.
  • Im strengen Sinne der Systemtheorie müsste man die AKF der Amplitudenkoeffizienten wie folgt definieren:
$$\varphi_{a , \hspace{0.08cm}\delta}(\tau) = \sum_{\lambda = -\infty}^{+\infty} \varphi_a(\lambda)\cdot \delta(\tau - \lambda \cdot T)\hspace{0.05cm}.$$
⇒   Damit würde sich die obige Gleichung wie folgt darstellen:
$$\varphi_s(\tau) ={1}/{T} \cdot \varphi_{a , \hspace{0.08cm} \delta}(\tau)\star \varphi^{^{\bullet}}_{gs}(\tau - \lambda \cdot T) = \sum_{\lambda = -\infty}^{+\infty}{1}/{T} \cdot \varphi_a(\lambda)\cdot \varphi^{^{\bullet}}_{gs}(\tau - \lambda \cdot T)\hspace{0.05cm}.$$
⇒   Zur einfacheren Darstellung wird im Folgenden die diskrete AKF der Amplitudenkoeffizienten   ⇒   $\varphi_a(\lambda)$  ohne diese Diracfunktionen geschrieben.


LDS–Berechnung eines Digitalsignals


Die Entsprechungsgröße zur Autokorrelationsfunktion  $\rm (AKF)$  eines Zufallssignals   ⇒   $\varphi_s(\tau)$  ist im Frequenzbereich das  Leistungsdichtespektrum  $\rm (LDS)$    ⇒   ${\it \Phi}_s(f)$,  das mit der AKF über das Fourierintegral in einem festen Bezug steht:

$$\varphi_s(\tau) \hspace{0.4cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet \hspace{0.4cm} {\it \Phi}_s(f) = \int_{-\infty}^{+\infty} \varphi_s(\tau) \cdot {\rm e}^{- {\rm j}\hspace{0.05cm} 2 \pi f \hspace{0.02cm} \tau} \,{\rm d} \tau \hspace{0.05cm}.$$
  • Berücksichtigt man den Zusammenhang zwischen Energie–AKF und Energiespektrum,
$$\varphi^{^{\hspace{0.05cm}\bullet}}_{gs}(\tau) \hspace{0.4cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet \hspace{0.4cm} {\it \Phi}^{^{\hspace{0.08cm}\bullet}}_{gs}(f) = |G_s(f)|^2 \hspace{0.05cm},$$
sowie den  Verschiebungssatz,  so kann das Leistungsdichtespektrum des Digitalsignals  $s(t)$  in folgender Weise dargestellt werden:
$${\it \Phi}_s(f) = \sum_{\lambda = -\infty}^{+\infty}{1}/{T} \cdot \varphi_a(\lambda)\cdot {\it \Phi}^{^{\hspace{0.05cm}\bullet}}_{gs}(f) \cdot {\rm e}^{- {\rm j}\hspace{0.05cm} 2 \pi f \hspace{0.02cm} \lambda T} = {1}/{T} \cdot |G_s(f)|^2 \cdot \sum_{\lambda = -\infty}^{+\infty}\varphi_a(\lambda)\cdot \cos ( 2 \pi f \lambda T)\hspace{0.05cm}.$$
Hierbei ist berücksichtigt,  dass  ${\it \Phi}_s(f)$  und  $|G_s(f)|^2$  reellwertig sind und gleichzeitig  $\varphi_a(-\lambda) =\varphi_a(+\lambda)$  gilt.

  • Definiert man nun die  spektrale Leistungsdichte der Amplitudenkoeffizienten  zu
$${\it \Phi}_a(f) = \sum_{\lambda = -\infty}^{+\infty}\varphi_a(\lambda)\cdot {\rm e}^{- {\rm j}\hspace{0.05cm} 2 \pi f \hspace{0.02cm} \lambda \hspace{0.02cm}T} = \varphi_a(0) + 2 \cdot \sum_{\lambda = 1}^{\infty}\varphi_a(\lambda)\cdot\cos ( 2 \pi f \lambda T) \hspace{0.05cm},$$
so erhält man den folgenden Ausdruck:
$${\it \Phi}_s(f) = {\it \Phi}_a(f) \cdot {1}/{T} \cdot |G_s(f)|^2 \hspace{0.05cm}.$$

$\text{Fazit:}$  Das Leistungsdichtespektrum  ${\it \Phi}_s(f)$  eines Digitalsignals  $s(t)$  kann als Produkt zweier Funktionen dargestellt werden:

  1. Der erste Term  ${\it \Phi}_a(f)$  ist dimensionslos und beschreibt die spektrale Formung des Sendesignals durch die statistischen Bindungen der Quelle.
  2. Dagegen berücksichtigt  $\vert G_s(f) \vert^2$  die spektrale Formung durch den Sendegrundimpuls  $g_s(t)$. 
  3. Je schmaler dieser ist,  desto breiter ist  $\vert G_s(f) \vert^2$  und um so größer ist damit der Bandbreitenbedarf.
  4. Das Energiespektrum hat die Einheit  $\rm V^2s/Hz$  und das Leistungsdichtespektrum – aufgrund der Division durch den Symbolabstand  $T$  – die Einheit  $\rm V^2/Hz$.
  5. Beide Angaben gelten wieder nur für den Widerstand  $1 \ \rm \Omega$.


AKF und LDS bei bipolaren Binärsignalen


Die bisherigen Ergebnisse werden nun an Beispielen verdeutlicht.  Ausgehend von binären bipolaren Amplitudenkoeffizienten  $a_\nu \in \{-1, +1\}$  erhält man,  falls keine Bindungen zwischen den einzelnen Amplitudenkoeffizienten  $a_\nu$  bestehen:

Signalausschnitt, AKF und LDS bei binärer bipolarer Signalisierung
$$\varphi_a(\lambda) = \left\{ \begin{array}{c} 1 \\ 0 \\ \end{array} \right.\quad \begin{array}{*{1}c} {\rm{f\ddot{u}r}}\\ {\rm{f\ddot{u}r}} \\ \end{array} \begin{array}{*{20}c}\lambda = 0, \\ \lambda \ne 0 \\ \end{array} \hspace{0.5cm}\Rightarrow \hspace{0.5cm}\varphi_s(\tau)= {1}/{T} \cdot \varphi^{^{\bullet}}_{gs}(\tau)\hspace{0.05cm}.$$

Die Grafik zeigt zwei Signalausschnitte jeweils mit Rechteckimpulsen  $g_s(t)$,  die dementsprechend zu einer dreieckförmigen Autokorrelationsfunktion  $\rm (AKF)$  und zu einem  $\rm si^2$–förmigen Leistungsdichtespektrum  $\rm (LDS)$  führen.

  • Die linken Bilder beschreiben eine NRZ–Signalisierung.  Das heißt:   Die Breite  $T_{\rm S}$  des Grundimpulses ist gleich dem Abstand  $T$  zweier Sendeimpulse  (Quellensymbole).
  • Dagegen gelten die rechten Bilder für einen RZ–Impuls mit dem Tastverhältnis  $T_{\rm S}/T = 0.5$.


Man erkennt aus diesen Darstellungen:

  1. Bei NRZ–Rechteckimpulsen ergibt sich für die  (auf den Widerstand  $1 \ \rm \Omega$  bezogene)  Sendeleistung  $P_{\rm S} = \varphi_s(\tau = 0) = s_0^2$.
  2. Die dreieckförmige AKF ist auf den Bereich  $|\tau| \le T_{\rm S}= T$  beschränkt.
  3. Das LDS  ${\it \Phi}_s(f)$  als die Fouriertransformierte von  $\varphi_s(\tau)$  ist  $\rm si^2$–förmig mit äquidistanten Nullstellen im Abstand  $1/T$.
  4. Die Fläche unter der LDS–Kurve ergibt wieder die Sendeleistung  $P_{\rm S} = s_0^2$.


Im Fall der RZ–Signalisierung  (rechte Rubrik)  ist die dreieckförmige AKF gegenüber dem linken Bild in Höhe und Breite jeweils um den Faktor  $T_{\rm S}/T = 0.5$  kleiner.

$\text{Fazit:}$  Vergleicht man die beiden Leistungsdichtespektren  $($untere Bilder$)$,  so erkennt man für  $T_{\rm S}/T = 0.5$  $($RZ–Impuls$)$  gegenüber  $T_{\rm S}/T = 1$  $($NRZ–Impuls$)$

  • eine Verkleinerung in der Höhe um den Faktor  $4$ 
  • und eine Verbreiterung um den Faktor  $2$.


Die Fläche  $($Leistung$)$  ist somit halb so groß,  da in der Hälfte der Zeit  $s(t) = 0$  gilt.


AKF und LDS bei unipolaren Binärsignalen


Wir gehen weiterhin von NRZ– bzw. RZ–Rechteckimpulsen aus.  Die binären Amplitudenkoeffizienten seien aber nun unipolar:   $a_\nu \in \{0, 1\}$.  Dann gilt für die diskrete AKF der Amplitudenkoeffizienten:

Signalausschnitt,  AKF und LDS bei binärer unipolarer Signalisierung
$$\varphi_a(\lambda) = \left\{ \begin{array}{c} m_2 = 0.5 \\ \\ m_1^2 = 0.25 \\ \end{array} \right.\quad \begin{array}{*{1}c} {\rm{f\ddot{u}r}}\\ \\ {\rm{f\ddot{u}r}} \\ \end{array} \begin{array}{*{20}c}\lambda = 0, \\ \\ \lambda \ne 0 \hspace{0.05cm}.\\ \end{array}$$

Vorausgesetzt sind gleichwahrscheinliche Amplitudenkoeffizienten   ⇒   ${\rm Pr}(a_\nu =0) = {\rm Pr}(a_\nu =1) = 0.5$  ohne statistische Bindungen,  so dass sowohl das  zweite Moment  $m_2$  (Leistung)  als auch der  lineare Mittelwert  $m_1$  (Gleichanteil)  jeweils  $0.5$  sind.

Die Grafik zeigt einen Signalausschnitt,  die AKF und das LDS mit unipolaren Amplitudenkoeffizienten,

  • links für rechteckförmige NRZ–Impulse  $(T_{\rm S}/T = 1)$,  und
  • rechts für RZ–Impulse mit dem Tastverhältnis  $T_{\rm S}/T = 0.5$.


Es gibt folgende Unterschiede gegenüber  bipolarer Signalisierung:

  • Durch die Addition der unendlich vielen Dreieckfunktionen im Abstand  $T$,  alle mit gleicher Höhe,  ergibt sich für die AKF in der linken Grafik  (NRZ)  ein konstanter Gleichanteil  $s_0^2/4$.
  • Daneben verbleibt im Bereich  $|\tau| \le T_{\rm S}$  ein einzelnes Dreieck ebenfalls mit Höhe  $s_0^2/4$,  das im Leistungsdichtespektrum (LDS) zum  $\rm si^2$–förmigen Verlauf führt  (blaue Kurve).
  • Der Gleichanteil in der AKF hat im LDS eine Diracfunktion bei der Frequenz  $f = 0$  mit dem Gewicht  $s_0^2/4$ zur Folge.  Dadurch wird der LDS–Wert  ${\it \Phi}_s(f=0)$  unendlich groß.


Aus der rechten Grafik  – gültig für  $T_{\rm S}/T = 0.5$ –  erkennt man,  dass sich nun die AKF aus einem periodischen Dreiecksverlauf  (im mittleren Bereich gestrichelt eingezeichnet)  und zusätzlich noch aus einem einmaligen Dreieck im Bereich  $|\tau| \le T_{\rm S} = T/2$  mit Höhe  $s_0^2/8$  zusammensetzt.

  • Diese einmalige Dreieckfunktion führt zum kontinuierlichen  $\rm si^2$–förmigen Anteil  (blaue Kurve)  von  ${\it \Phi}_s(f)$  mit der ersten Nullstelle bei  $1/T_{\rm S} = 2/T$.
  • Dagegen führt die periodische Dreieckfunktion nach den Gesetzmäßigkeiten der   Fourierreihe  zu einer unendlichen Summe von Diracfunktionen mit unterschiedlichen Gewichten im Abstand  $1/T$  (rot gezeichnet).
  • Die Gewichte der Diracfunktionen sind proportional zum kontinuierlichen (blauen) LDS–Anteil. Das maximale Gewicht  $s_0^2/8$  besitzt die Diraclinie bei  $f = 0$. Dagegen sind die Diraclinien bei  $\pm 2/T$  und Vielfachen davon nicht vorhanden bzw. besitzen jeweils das Gewicht  $0$, da hier auch der kontinuierliche LDS–Anteil Nullstellen hat.


$\text{Hinweis:}$ 

  • Unipolare Amplitudenkoeffizienten treten zum Beispiel bei optischen Übertragungssystemen  auf.
  • In späteren Kapiteln beschränken wir uns aber meist auf die bipolare Signalisierung.


Aufgaben zum Kapitel


Aufgabe 2.1: AKF und LDS nach Codierung

Aufgabe 2.1Z: Zur äquivalenten Bitrate

Aufgabe: 2.2 Binäre bipolare Rechtecke