Verschiedene Sprachcodierverfahren

Jedem GSM-Teilnehmer steht maximal die Netto–Datenrate 22.8 kbit/s zur Verfügung, während im ISDN–Festnetz mit einer Datenrate von 64 kbit/s (bei 8 Bit Quantisierung) bzw. 104 kbit/s (bei 13 Bit Quantisierung) gearbeitet wird. Aufgabe der Sprachcodierung bei GSM ist die Beschränkung der Datenmenge zur Sprachsignalübertragung auf 22.8 kbit/s und eine bestmögliche Reproduktion des Sprachsignals auf der Empfängerseite. Die Funktionen des GSM–Coders und des GSM–Decoders sind meist in einer Funktionseinheit zusammengefasst, die als Codec bezeichnet wird.

Zur Sprachcodierung und –Decodierung werden verschiedene Signalverarbeitungsverfahren angewandt:

  • Der GSM Fullrate Vocoder (deutsch: GSM–Vollraten–Sprachcodec) wurde 1991 aus einer Kombination von drei Kompressionsmethoden für den GSM–Funkkanal standardisiert. Er basiert auf Linear Predictive Coding (LPC) in Verbindung mit einer Long Term Prediction (LTP) und einer Regular Pulse Excitation (RPE).
  • Der GSM Halfrate Vocoder (deutsch: GSM–Halbraten–Sprachcodec) wurde 1994 eingeführt und bietet die Möglichkeit, Sprache bei nahezu gleicher Qualität in einem halben Verkehrskanal (Datenrate 11.4 kbits/s) zu übertragen.
  • Der Enhanced Fullrate Vocoder (EFR–Codec) wurde 1995 standardisiert und implementiert, ursprünglich für das nordamerikanische DCS1900–Netz. Der EFR–Codec bietet gegenüber dem herkömmlichen Vollraten–Codec eine bessere Sprachqualität.
  • Der Adaptive Multi–Rate Codec (AMR–Codec) ist der neueste Sprachcodec für GSM. Er wurde 1997 standardisiert und 1999 vom Third Generation Partnership Project (3GPP) auch als Standard–Sprachcodec für Mobilfunksysteme der 3. Generation wie UMTS vorgeschrieben.

Sie können sich die Qualität dieser Sprachcodierverfahren bei Sprache und Musik mit dem folgenden Interaktionsmodul verdeutlichen: Qualität verschiedener Sprach–Codecs (Dateigröße: 11.3 MB)

Diese Audio–Animation berücksichtigt auch den Wideband–AMR, der momentan (2007) für UMTS entwickelt und standardisiert wird. Im Gegensatz zum herkömmlichen AMR, bei dem das Sprachsignal auf den Frequenzbereich von 300 Hz bis 3.4 kHz bandbegrenzt wird, geht man beim WB–AMR von einem Wideband–Signal (50 Hz – 7 kHz) aus. Dieser ist somit auch für Musiksignale geeignet.


GSM Fullrate Vocoder – Vollraten–Codec

Beim GSM–Vollraten-Codec (Full Rate Vocoder) wird das analoge Sprachsignal im Frequenzbereich zwischen 300 und 3400 Hz zunächst mit 8 kHz abgetastet und danach mit 13 Bit linear quantisiert (A/D–Wandlung), was eine Datenrate von 104 kbit/s ergibt. Die Sprachcodierung erfolgt bei diesem Verfahren in vier Schritten:

  • die Vorverarbeitung,
  • die Einstellung des Kurzzeitanalyse–Filters

(Linear Predictive Coding, LPC),

  • die Steuerung des Langzeitanalyse–Filters

(Long Term Prediction, LTP) und

  • die Codierung des Restsignals durch eine Folge von Pulsen (Regular Pulse Excitation, RPE).

In obiger Grafik bezeichnet $s(n)$ das im Abstand $T_{\rm A}$ = 125 µs abgetastete und quantisierte Sprachsignal nach der kontinuierlich durchgeführten Vorverarbeitung, wobei

  • das digitalisierte Mikrofonsignal von einem eventuell vorhandenen Gleichsignalanteil (Offset) befreit wird, um bei der Decodierung einen störenden Pfeifton von ca. 2.6 kHz bei der Wiedergewinnung der höheren Frequenzanteile zu vermeiden, und
  • zusätzlich höhere Spektralanteile von $s(n)$ angehoben werden, um die Rechengenauigkeit und Effektivität der nachfolgenden LPC–Analyse zu verbessern.

Die Tabelle zeigt die 76 Parameter (260 Bit) der Funktionseinheiten LPC, LTP und RPE. Die Bedeutung der einzelnen Größen wird auf den folgenden Seiten im Detail beschrieben.

Alle Verarbeitungsschritte (LPC, LTP, RPE) erfolgen jeweils in Blöcken von 20 ms Dauer über 160 Abtastwerte des vorverarbeiteten Sprachsignals, die man als GSM–Sprachrahmen bezeichnet. Beim Vollraten–Codec werden pro Sprachrahmen insgesamt 260 Bit erzeugt, woraus sich eine Datenrate von 13 kbit/s ergibt. Dies entspricht einer Kompression des Sprachsignals um den Faktor 8 (104 kbit/s bezogen auf 13 kbit/s).


Linear Predictive Coding – Kurzzeitprädiktion

Der Block Linear Predictive Coding (LPC) führt eine Kurzzeitprädiktion durch, das heißt, es werden die statistischen Abhängigkeiten der Abtastwerte untereinander in einem kurzen Bereich von einer Millisekunde ermittelt. Zunächst wird dazu das zeitlich unbeschränkte Signal $s(n)$ mit $n$ = 1, 2, ... in Intervalle $s_{\rm R}(n)$ von 20 ms Dauer, also 160 Samples, segmentiert. Die Laufvariable innerhalb eines solchen Sprachrahmens kann vereinbarungsgemäß die Werte $n$ = 1, ... , 160 annehmen.

Hier folgt eine Kurzbeschreibung des obigen LPC–Prinzipschaltbildes:

  • Im ersten Schritt der LPC-Analyse werden statistische Abhängigkeiten zwischen den Abtastwerten durch die Autokorrelationskoeffizienten $φ_{\rm s}(k) = \text{E}[s_{\rm R}(n) · s_{\rm R}(n + k)]$ mit 0 ≤ $k$ ≤ 8 quantifiziert. Aus diesen neun AKF–Werten werden mit Hilfe der sog. Schur–Rekursion acht Reflexionskoeffizienten $r_{\rm k}$ berechnet, die als Grundlage für die Einstellung der Koeffizienten des LPC–Analysefilters für den aktuellen Rahmen dienen.
  • Die Koeffizienten $r_{\rm k}$ können Werte zwischen ±1 annehmen. Schon geringe Änderungen der $r_{\rm k}$ am Rand ihres Wertesbereichs bewirken große Änderungen für die Sprachcodierung. Die acht Reflexionswerte $r_{\rm k}$ werden logarithmisch dargestellt ⇒ LAR–Parameter (Log Area Ratio):
  • Anschließend werden diese acht LAR–Parameter entsprechend ihrer subjektiven Bedeutung durch unterschiedlich viele Bits quantisiert, codiert und zur Übertragung bereitgestellt. Die beiden ersten Parameter werden mit je 6 Bit, die beiden nächsten mit je 5 Bit, LAR(5) und LAR(6) mit je 4 Bit und die beiden letzten mit je 3 Bit dargestellt.
  • Bei fehlerfreier Übertragung kann am Empfänger aus den acht LPC–Parametern (insgesamt 36 Bit) mit dem entsprechenden LPC–Synthesefilter das ursprüngliche Signal s(n) wieder vollständig rekonstruiert werden, wenn man von den unvermeidbaren zusätzlichen Quantisierungsfehlern durch die digitale Beschreibung der LAR-Koeffizienten absieht.
  • Weiterhin wird mit Hilfe des LPC–Filters das Prädiktionsfehlersignal $e_{\rm LPC}(n)$ gewonnen. Dieses ist gleichzeitig das Eingangssignal für die nachfolgende Langzeitprädiktion. Das LPC–Filter ist nicht rekursiv und hat nur ein kurzes Gedächtnis von etwa einer Millisekunde.

Die Grafik aus [1] zeigt oben einen Ausschnitt des Sprachsignals $s(n)$ und dessen Zeit–Frequenzdarstellung. Unten ist das LPC–Prädiktionsfehlersignal $e_{\rm LPC}(n)$ dargestellt.

Man erkennt aus diesen Bildern

  • die kleinere Amplitude von $e_{\rm LPC}(n)$ gegenüber $s(n)$,
  • den deutlich reduzierten Dynamikumfang und
  • das flachere Spektrum des verbleibenden Signals.


Long Term Prediction – Langzeitprädiktion

Bei der Long Term Prediction (LTP) wird die Eigenschaft des Sprachsignals ausgenutzt, dass es auch periodische Strukturen (stimmhafte Abschnitte) besitzt. Dieser Umstand wird dazu verwendet, um die im Signal vorhandene Redundanz zu reduzieren. Die Langzeitprädiktion (LTP–Analyse und –Filterung) wird viermal pro Sprachrahmen, also alle 5 ms durchgeführt. Die Subblöcke bestehen aus jeweils 40 Abtastwerten und werden mit i = 1, ..., 4 nummeriert.

Es folgt eine Kurzbeschreibung der Langzeitprädiktion gemäß dem obigen Prinzipschaltbild – siehe [2]. Das Eingangssignal ist das Ausgangssignal $e_{\rm LPC}(n)$ der Kurzzeitprädiktion. Die Signale nach der Segmentierung in vier Subblöcken werden mit $e_i(l)$ bezeichnet, wobei jeweils $l$ = 1, 2, ... , 40 gilt.

  • Zu dieser Analyse wird die Kreuzkorrelationsfunktion $φ_{ee',i}(k)$ des aktuellen Subblocks $i$ des LPC–Prädiktionsfehlersignals $e_i(l)$ mit dem rekonstruierten LPC–Restsignal $e'_i(l)$ aus den drei vorherigen Teilrahmen berechnet. Das Gedächtnis dieses LTP–Prädiktors beträgt zwischen 5 und 15 ms und ist somit deutlich länger als das des LPC–Prädiktors (1 ms).
  • $e'_i(l)$ ist die Summe aus dem LTP–Filter–Ausgangssignal $y_i(l)$ und dem Korrektursignal $e_{\rm RPE,i}(l)$, das von der folgenden Komponente (Regular Pulse Excitation) für den $i$–ten Subblock bereitgestellt wird.
  • Der Wert von $k$, für den die Kreuzkorrelationsfunktion $φ_{ee',i}(k)$ maximal wird, bestimmt die für jeden Subblock $i$ optimale LTP–Verzögerung $N(i)$. Die Verzögerungen $N(1)$ bis $N(4)$ werden jeweils mit 7 Bit quantisiert und zur Übertragung bereitgestellt.
  • Der zu $N(i)$ gehörige Verstärkungsfaktor $G(i)$ – auch LTP–Gain genannt – wird so bestimmt, dass der an der Stelle $N(i)$ gefundene Subblock nach Multiplikation mit $G(i)$ am besten zum aktuellen Teilrahmen $e_i(l)$ passt. Die Verstärkungsfaktoren $G(1)$ bis $G(4)$ werden jeweils mit 2 Bit quantisiert und ergeben zusammen mit $N(1)$, ..., $N(4)$ die 36 Bit für die acht LTP–Parameter.
  • Das Signal $y_i(l)$ nach LTP–Analyse und –Filterung ist ein Schätzsignal für das LPC–Signal $e_i(l)$ im $i$–ten Subblock. Die Differenz zwischen beiden ergibt das LTP–Restsignal $e_{\rm LTP,i}(l)$, das an die nächste Funktionseinheit „RPE” weitergegeben wird.


Regular Pulse Excitation – RPE–Codierung

Das Signal nach LPC– und LTP–Filterung ist bereits redundanzreduziert, das heißt, es benötigt eine geringere Bitrate als das abgetastete Sprachsignal $s(n)$. Nun wird in der nachfolgenden Funktionseinheit Regular Pulse Excitation (RPE) die Irrelevanz weiter verringert. Das bedeutet: Signalanteile, die für den subjektiven Höreindruck weniger wichtig sind, werden entfernt.

Zum obigen Blockschaltbild ist Folgendes anzumerken:

  • Die RPE–Codierung wird jeweils für 5 ms–Teilrahmen (40 Abtastwerte) durchgeführt. Dies ist hier durch den Index $„i”$ im Eingangssignal $e_{\rm LTP}, i(l)$ angedeutet, wobei mit $i$ = 1, 2, 3, 4 wieder die einzelnen Subblöcke durchnummeriert sind.
  • Im ersten Schritt wird das LTP–Prädiktionsfehlersignal $e_{{\rm LTP}, i}(l)$ durch ein Tiefpassfilter auf etwa ein Drittel der ursprünglichen Bandbreite – also auf 1.3 kHz – bandbegrenzt. Dies ermöglicht in einem zweiten Schritt eine Reduktion der Abtastrate um ca. den Faktor 3.
  • So wird das Ausgangssignal $x_i(l)$ mit $l$ = 1, ... , 40 durch Unterabtastung in vier Teilfolgen $x_{m, i}(j)$ mit m = 1, ... , 4 und j = 1, ... , 13 zerlegt. Diese Aufspaltung ist in der Grafik verdeutlicht.
  • Die Teilfolgen $x_{m, i}(j)$ beinhalten folgende Abtastwerte des Signals $x_i(l)$:

$m$ = 1: $l$ = 1, 4, 7, ... , 34, 37 (rote Punkte), $m$ = 2: $l$ = 2, 5, 8, ... , 35, 38 (grüne Punkte), $m$ = 3: $l$ = 3, 6, 9, ... , 36, 39 (blaue Punkte), $m$ = 4: $l$ = 4, 7, 10, ... , 37, 40 (ebenfalls rot, weitgehend identisch mit $m$ = 1).

  • Für jeden Subblock $i$ wird im Block RPE Grid Selection diejenige Teilfolge $x_{m,i}(j)$ mit der höchsten Energie ausgewählt und der Index $M_i$ der optimalen Folge mit 2 Bit quantisiert und als $\mathbf{M(i)}$ übertragen. Insgesamt benötigen die vier RPE–Teilfolgen–Indizes $\mathbf{M(1)}$ ... $\mathbf{M(4)}$ somit 8 Bit.
  • Von der optimalen Teilfolge für den Subblock $i$ (mit Index $M_i$) wird das Betragsmaximum $x_{\rm max,i}$ ermittelt, dieser Wert mit 6 Bit logarithmisch quantisiert und als $\mathbf{x_{\rm max}(i)}$ zur Übertragung bereit gestellt. Insgesamt benötigen die vier RPE–Blockamplituden 24 Bit.
  • Zusätzlich wird für jeden Subblock $i$ die optimale Teilfolge auf $x_{{\rm max},i}$ normiert. Die so erhaltenen 13 Abtastwerte werden anschließend mit jeweils 3 Bit quantisiert und als $\mathbf{X_j(i)}$ codiert übertragen. Die 4 · 13 · 3 = 156 Bit beschreiben den so genannten RPE–Pulse.
  • Anschließend werden diese RPE–Parameter lokal wieder decodiert und als Signal $e_{{\rm RPE},i}(l)$ an das LTP–Synthesefilter im vorherigen Subblock zurückgeführt, woraus zusammen mit dem LTP–Schätzsignal $y_i(l)$ das Signal $e'_i(l)$ erzeugt wird (siehe Grafik auf der Seite 4a).
  • Durch das Zwischenfügen von jeweils zwei Nullwerten zwischen zwei übertragenen RPE–Abtastwerten wird näherungsweise das Basisband von 0 bis 1300 Hz in den Bereich von 1300 bis 2600 Hz in Kehrlage und von 2600 bis 3900 Hz in Normallage gefaltet.
  • Dies ist der Grund für die notwendige Gleichsignalbefreiung in der Vorverarbeitung. Sonst entstünde durch die beschriebene Faltungsoperation ein störender Pfeifton bei 2.6 kHz.


Halfrate Vocoder und Enhanced Fullrate Codec

Nach der Standardisierung des Vollraten–Codecs im Jahre 1991 ging es in der Folgezeit um die Entwicklung neuer Sprachcodecs mit zwei spezifischen Zielen, nämlich um

  • die bessere Ausnutzung der in GSM–Systemen verfügbaren Bandbreite, und
  • die Verbesserung der Sprachqualität.

Diese Entwicklung kann wie folgt zusammengefasst werden:

  • Bis 1994 wurde mit dem Halfrate Vocoder (deutsch: Halbraten-Codec) ein neues Verfahren entwickelt. Dieser hat eine Datenrate von 5.6 kbit/s und bietet so die Möglichkeit, Sprache in einem halben Verkehrskanal bei annähernd gleicher Qualität zu übertragen. Dadurch können auf einem Zeitschlitz zwei Gespräche gleichzeitig abgewickelt werden. Der Halbraten–Codec wurde allerdings von den Mobilfunkbetreibern nur dann eingesetzt, wenn eine Funkzelle überlastet war. Heute spielt der Halfrate–Codec keine Rolle mehr.
  • Um die GSM–Sprachqualität weiter zu verbessern, wurde 1995 der Enhanced Fullrate Codec (EFR–Codec) eingeführt. Dieses Sprachcodierverfahren – ursprünglich für das US–amerikanische DCS1900–Netz entwickelt – ist ein Vollraten–Codec mit einer Datenrate von 12.2 kbit/s. Die Nutzung dieses Codecs muss natürlich vom Mobiltelefon unterstützt werden.
  • Statt der RPE–LTP–Komprimierung (Regular Pulse Excitation – Long Term Prediction) beim herkömmlichen Vollraten–Codec wird bei dieser Weiterentwicklung Algebraic Code Excitation Linear Prediction (ACELP) angewandt, was eine deutlich bessere Sprachqualität und eine ebenfalls verbesserte Fehlererkennung und –verschleierung bietet. Nähere Informationen darüber finden Sie auf der übernächsten Seite.


Adaptive Multi–Rate Codec

Die bisher beschriebenen GSM–Codecs arbeiten hinsichtlich Sprach– und Kanalcodierung unabhängig von den Kanalbedingungen und der Netzauslastung stets mit einer festen Datenrate. 1997 wurde ein neues adaptives Sprachcodierverfahren für Mobilfunksysteme entwickelt und kurz darauf durch das European Telecommunications Standards Institute (ETSI) nach Vorschlägen der Firmen Ericsson, Nokia und Siemens standardisiert. Bei den Forschungsarbeiten zum Systemvorschlag der Siemens AG war der Lehrstuhl für Nachrichtentechnik der TU München, der dieses Lerntutorial LNTwww zur Verfügung stellt, entscheidend beteiligt. Näheres hierzu finden Sie unter [3].

Der Adaptive Multi–Rate Codec – abgekürzt AMR – hat folgende Eigenschaften:

  • Er passt sich flexibel an die aktuellen Kanalgegebenheiten und an die Netzauslastung an, indem er entweder im Vollraten–Modus (höhere Sprachqualität) oder im Halbraten–Modus (geringere Datenrate) arbeitet. Daneben gibt es noch etliche Zwischenstufen.
  • Er bietet sowohl beim Vollraten– als auch beim Halbratenverkehrskanal eine verbesserte Sprachqualität, was auf die flexibel handhabbare Aufteilung der zur Verfügung stehenden Brutto–Kanalrate zwischen Sprach– und Kanalcodierung zurückzuführen ist.
  • Er besitzt eine größere Robustheit gegenüber Kanalfehlern als die Codecs aus der Frühzeit der Mobilfunktechnik. Dies gilt besonders beim Einsatz im Vollraten–Verkehrskanal.

Der AMR–Codec stellt acht verschiedene Modi mit Datenraten zwischen 12.2 kbit/s (244 Bit pro Rahmen von 20 ms) und 4.75 kbit/s (95 Bit pro Rahmen) zur Verfügung.

Drei Modi spielen eine herausgehobene Rolle, nämlich

  • 12.2 kbit/s – der verbesserte GSM–Vollraten–Codec (EFR-Codec),
  • 7.4 kbit/s – die Sprachkompression gemäß dem US–amerikanischen Standard IS–641, und
  • 6.7 kbit/s – die EFR–Sprachübertragung des japanischen PDC–Mobilfunkstandards.

Die nachfolgenden Beschreibungen beziehen sich meist auf den Modus mit12.2 kbit/s.

Alle Vorgänger–Verfahren des AMR basieren auf der Minimierung des Prädiktionsfehlersignals durch eine Vorwärtsprädiktion in den festen Teilschritten LPC, LTP und RPE. Im Gegensatz dazu verwendet der AMR-Codec eine Rückwärtsprädiktion gemäß dem Prinzip „Analyse durch Synthese”. Dieses Codierungsprinzip bezeichnet man auch als Algebraic Code Excited Linear Prediction (ACELP).

In der Tabelle sind die Parameter des Adaptive Multi–Rate Codecs zusammengestellt, die mit 244 Bit pro 20 ms (Modus 12.2 kbit/s) bzw. 95 Bit (Modus 4.75 kbit/s) codiert werden.


Algebraic Code Excited Linear Prediction

Die Grafik zeigt den auf ACELP basierenden AMR-Codec. Eine detaillierte Beschreibung finden Sie zum Beispiel in [4].

Hier eine kurze Beschreibung des AMR–Prinzips:

  • Das Sprachsignal $s(n)$, wie beim GSM–Vollraten–Sprachcodec mit 8 kHz abgetastet und mit 13 Bit quantisiert, wird vor der weiteren Verarbeitung in Rahmen $s_{\rm R}(n)$ mit $n$ = 1, ... , 160 bzw. in Subblöcke $s_i(l)$ mit $i$ = 1, 2, 3, 4 und $l$ = 1, ... , 40 segmentiert.
  • Die Berechnung der LPC–Koeffizienten erfolgt im rot hinterlegten Block rahmenweise alle 20 ms entsprechend 160 Abtastwerten, da innerhalb dieser kurzen Zeitspanne die spektrale Einhüllende des Sprachsignal $s_{\rm R}(n)$ als konstant angesehen werden kann.
  • Zur LPC–Analyse wird meist ein Filter $A(z)$ der Ordnung 10 gewählt. Beim höchstratigen Modus mit 12.2 kbit/s werden die aktuellen Filterkoeffizienten $a_k$ ( $k$ = 1, ... , 10 ) der Kurzzeitprädiktion alle 10 ms quantisiert, codiert und beim gelb hinterlegten Punkt 1 zur Übertragung bereitgestellt.
  • Die weiteren Schritte des AMR werden alle 5 ms entsprechend den 40 Abtastwerten der Signale $s_i(l)$ durchgeführt. Die Langzeitprädiktion (LTP) – im Bild blau umrandet – ist hier als adaptives Codebuch realisiert, in dem die Abtastwerte der vorangegangenen Subblöcke eingetragen sind.
  • Für die Langzeitprädiktion (LTP) wird zunächst die FCB–Verstärkung $G_{\rm FCB}$ zu Null gesetzt, so dass eine Folge von 40 Samples des adaptiven Codebuchs am Eingang $u_i(l)$ des durch die LPC festgelegten Sprachtraktfilters $A(z)^{–1}$ anliegen. Der Index $i$ bezeichnet den betrachteten Subblock.
  • Durch Variation der beiden LTP–Parameter $N_{{\rm LTP},i}$ und $G_{{\rm LTP},i}$ soll für diesen $i$–ten Subblock erreicht werden, dass der quadratische Mittelwert – also die mittlere Leistung – des gewichteten Fehlersignals $w_i(l)$ minimal wird.
  • Das Fehlersignal $w_i(l)$ ist gleich der Differenz zwischen dem aktuellen Sprachrahmen $s_i(l)$ und dem Ausgangssignal $y_i(l)$ des sog. Sprachtraktfilters bei Anregung mit $u_i(l)$, unter Berücksichtigung des Wichtungsfilters $W(z)$ zur Anpassung an die Spektraleigenschaften des menschlichen Gehörs.
  • In anderen Worten: $W(z)$ entfernt solche spektralen Anteile im Signal $e_i(l)$, die von einem „durchschnittlichen” Ohr nicht wahrgenommen werden. Beim Modus für 12.2 kbit/s verwendet man $W(z) = A(z/γ_1)/A(z/γ_2)$ mit konstanten Faktoren $γ_1$ = 0.9 und $γ_2$ = 0.6.
  • Für jeden Subblock kennzeichnet $N_{{\rm LTP},i}$ die bestmögliche LTP–Verzögerung, die zusammen mit der LTP–Verstärkung $G_{{\rm LTP},i}$ nach Mittelung bezüglich $l$ = 1, ... , 40 den quadratischen Fehler $\text{E}[w_i(l)^2]$ minimiert. Gestrichelte Linien kennzeichnen Steuerleitungen zur iterativen Optimierung.
  • Man bezeichnet die beschriebene Vorgehensweise als Analyse durch Synthese. Nach einer ausreichend großen Anzahl an Iterationen wird der Subblock ui(l) in das adaptive Codebuch aufgenommen. Die ermittelten LTP–Parameter NLTP,i$N_{{\rm LTP},i}$ und $G_{{\rm LTP},i}$ werden codiert und zur Übertragung bereitgestellt.

Nach der Ermittlung der besten adaptiven Anregung erfolgt die Suche nach dem besten Eintrag im festen Codebuch (Fixed Code Book, FCB). Dieser liefert die wichtigste Information über das Sprachsignal. Zum Beispiel werden beim 12.2 kbit/s–Modus hieraus pro Subblock 40 Bit abgeleitet, so dass in jedem Rahmen von 20 Millisekunden 160/244 ≈ 65% der Codierung auf den im Bild auf der letzten Seite grün umrandeten Block zurückgehen.

Das Prinzip lässt sich anhand obiger Grafik in wenigen Stichpunkten wie folgt beschreiben:

  • Im festen Codebuch kennzeichnet jeder Eintrag einen Puls, bei dem genau 10 der 40 Positionen mit +1 bzw. –1 belegt sind. Erreicht wird dies gemäß der Grafik durch fünf Spuren mit jeweils 8 Positionen, von denen genau zwei die Werte ±1 aufweisen und alle anderen 0 sind.
  • Ein roter Kreis in obiger Grafik (an den Positionen 2, 11, 26, 30, 38) kennzeichnet eine +1, ein blauer eine –1 (im Beispiel bei 13, 17, 19, 24, 35). In jeder Spur werden die beiden belegten Positionen mit lediglich je 3 Bit codiert (da es nur 8 mögliche Positionen gibt).
  • Für das Vorzeichen wird ein weiteres Bit verwendet, welches das Vorzeichen des erstgenannten Impulses definiert. Ist die Pulsposition des zweiten Impulses größer als die des ersten, so hat der zweite Impuls das gleiche Vorzeichen wie der erste, ansonsten das entgegengesetzte.
  • In der ersten Spur des obigen Beispiels gibt es positive Pulse auf Position 2 (010) und Position 5 (101), wobei die Positionszählung bei 0 beginnt. Diese Spur ist also gekennzeichnet durch die Positionen „010” und „101” sowie das Vorzeichen „1” (positiv).
  • Die Kennzeichnung für die Spur 2 lautet: Positionen 011 und 000, Vorzeichen 0. Da hier die Pulse an Position 0 und 3 unterschiedliche Vorzeichen haben, steht „011” vor „000”. Das Vorzeichen „0” ⇒ negativ bezieht sich auf den Puls an der erstgenannten Position 3.
  • Ein jeder Puls – bestehend aus 40 Impulsen, von denen allerdings 30 das Gewicht 0 besitzen – ergibt ein stochastisches, rauschähnliches Akustiksignal, das nach Verstärkung mit $G_{{\rm LTP},i}$ und Formung durch das LPC–Sprachtraktfilter $A(z)^{–1}$ den aktuellen Sprachrahmen $s_i(l)$ approximiert.


Aufgaben zu Kapitel 3.3

Quellenverzeichnis

  1. Kaindl, M.: Kanalcodierung für Sprache und Daten in GSM-Systemen. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 764, 2005.
  2. Kaindl, M.: Kanalcodierung für Sprache und Daten in GSM-Systemen. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 764, 2005.
  3. Hindelang, T.: Source-Controlled Channel Decoding and Decoding for Mobile Communications. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 695, 2002.
  4. Kaindl, M.: Kanalcodierung für Sprache und Daten in GSM-Systemen. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 764, 2005.