Stochastische Signaltheorie/Erwartungswerte und Momente: Unterschied zwischen den Versionen
Zeile 36: | Zeile 36: | ||
− | Bezeichnet $x$ beispielsweise eine Spannung, so hat $m_1$ die Einheit ${\rm | + | Bezeichnet $x$ beispielsweise eine Spannung, so hat $m_1$ die Einheit „${\rm V}$” und $m_2$ die Einheit ${\rm „V}^2”.$ Will man die Leistung in „Watt” angeben, so muss $m_2$ noch durch den Widerstandswert $R$ dividiert werden. |
==Zentralmomente== | ==Zentralmomente== | ||
Zeile 43: | Zeile 43: | ||
$$\mu_k = {\rm E}[(x-m_{\rm 1})^k] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$ | $$\mu_k = {\rm E}[(x-m_{\rm 1})^k] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$ | ||
− | $$\mu_k = \rm E[ | + | $$\mu_k = {\rm E}[ (x-m_{\rm 1} )^k ] = \int_{-\infty}^{\rm +\infty} (x-m_{\rm 1})^k\cdot f_{ x}(x) \,\rm d \it x.$$ |
$$\mu_k = {\rm E}[(x-m_{1})^k] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$ | $$\mu_k = {\rm E}[(x-m_{1})^k] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$ | ||
Zeile 52: | Zeile 52: | ||
$$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$ | $$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$ | ||
− | Nach den allgemein gültigen Gleichungen der letzten Seite ergeben sich die formalen Größen $m_0 =$ | + | Nach den allgemein gültigen Gleichungen der [[Stochastische_Signaltheorie/Erwartungswerte_und_Momente#Berechnung_als_Scharmittelwert|letzten Seite]] ergeben sich die formalen Größen $m_0 = 1$ und $\mu_0 = 1$. Für das Zentralmoment erster Ordnung gilt nach obiger Definition stets $\mu_1 = 0$. |
− | In der Gegenrichtung gelten folgende Gleichungen für $k =$ | + | In der Gegenrichtung gelten folgende Gleichungen für $k = 1$, $k = 2$, usw.: |
$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$ | $$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$ | ||
{{Beispiel}} | {{Beispiel}} | ||
− | Bei einer binären Zufallsgröße mit den Wahrscheinlichkeiten | + | Bei einer binären Zufallsgröße mit den Wahrscheinlichkeiten ${\rm Pr}(0) = 1 – p$ und ${\rm Pr}(1) = p$ haben alle Momente den genau gleichen Wert $p$: |
− | |||
− | |||
− | |||
− | |||
− | haben alle Momente den genau gleichen Wert $p$: | ||
$$m_1 = m_2 = m_3 = m_4 = ... \hspace{0.05cm}= p.$$ | $$m_1 = m_2 = m_3 = m_4 = ... \hspace{0.05cm}= p.$$ | ||
Mit den obigen Gleichungen erhält man dann für die ersten drei Zentralmomente: | Mit den obigen Gleichungen erhält man dann für die ersten drei Zentralmomente: |
Version vom 9. März 2017, 14:06 Uhr
Inhaltsverzeichnis
Berechnung als Scharmittelwert
Die Wahrscheinlichkeitsdichtefunktion (WDF) bietet ebenso wie die Verteilungsfunktion (VTF) sehr weitreichende Informationen über die betrachtete Zufallsgröße. Weniger Informationen liefern die so genannten Erwartungswerte und Momente.
Für diskrete Zufallsgrößen wurden deren Berechnungsmöglichkeiten bereits im Kapitel Momente einer diskreten Zufallsgröße angegeben. Nun werden diese integrativen Beschreibungsgrößen Erwartungswert bzw. Moment allgemeiner und im Zusammenhang mit der Wahrscheinlichkeitsdichtefunktion betrachtet.
Der Erwartungswert bezüglich einer beliebigen Gewichtungsfunktion $g(x)$ kann mit der WDF $f_{\rm x}(x)$ in folgender Weise berechnet werden: $${\rm E}[g (x ) ] = \int_{-\infty}^{+\infty} g(x)\cdot f_{x}(x) \,{\rm d}x.$$ Setzt man in diese Gleichung für $g(x) = x^k$ ein, so erhält man das Moment $k$-ter Ordnung: $$m_k = {\rm E}[x^k ] = \int_{-\infty}^{+\infty} x^k\cdot f_{x} \rm (x ) \, {\rm d}x.$$
Aus dieser Gleichung folgt
- mit $k = 1$ für den linearen Mittelwert:
- $$m_1 = {\rm E}[x ] = \int_{-\infty}^{ \rm +\infty} x\cdot f_{x} (x ) \,{\rm d}x,$$
- mit $k = 2$ für den quadratischen Mittelwert:
- $$m_2 = {\rm E}[x^{\rm 2} ] = \int_{-\infty}^{ \rm +\infty} x^{ 2}\cdot f_{ x} (x) \,{\rm d}x.$$
Bei einer diskreten, $M$-stufigen Zufallsgröße erhält man auch mit den hier angegebenen Formeln wieder die bereits im zweiten Kapitel angegebenen Gleichungen (Berechnung als Scharmittelwert):
$$m_1 = \sum\limits_{\mu=1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu,\hspace{0.5cm}
m_2 = \sum\limits_{\mu= 1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu^2.$$
Hierbei ist berücksichtigt, dass das Integral über die Diracfunktion $δ(x)$ gleich $1$ ist.
In Zusammenhang mit Signalen sind auch folgende Bezeichnungen üblich:
- $m_1$ gibt den Gleichanteil an,
- $m_2$ entspricht der (auf den Einheitswiderstand 1 \ Ω bezogenen) Signalleistung.
Bezeichnet $x$ beispielsweise eine Spannung, so hat $m_1$ die Einheit „${\rm V}$” und $m_2$ die Einheit ${\rm „V}^2”.$ Will man die Leistung in „Watt” angeben, so muss $m_2$ noch durch den Widerstandswert $R$ dividiert werden.
Zentralmomente
Eine besonders große Bedeutung haben in der Statistik die Zentralmomente, die im Gegensatz zu den herkömmlichen Momenten jeweils auf den Mittelwert $m_1$ bezogen sind:
$$\mu_k = {\rm E}[(x-m_{\rm 1})^k] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$
$$\mu_k = {\rm E}[ (x-m_{\rm 1} )^k ] = \int_{-\infty}^{\rm +\infty} (x-m_{\rm 1})^k\cdot f_{ x}(x) \,\rm d \it x.$$
$$\mu_k = {\rm E}[(x-m_{1})^k] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$
$$\mu_k = {\rm E}[(x-m_1)^k] = \int_{-\infty}^{+\infty} (x-m_1)^k\cdot f_x(x) \,{\rm d} x$$
Die nichtzentrierten Momente $m_k$ kann man direkt in die zentrierten Momente $\mu_k$ umrechnen: $$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$
Nach den allgemein gültigen Gleichungen der letzten Seite ergeben sich die formalen Größen $m_0 = 1$ und $\mu_0 = 1$. Für das Zentralmoment erster Ordnung gilt nach obiger Definition stets $\mu_1 = 0$.
In der Gegenrichtung gelten folgende Gleichungen für $k = 1$, $k = 2$, usw.: $$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$
Bei einer binären Zufallsgröße mit den Wahrscheinlichkeiten ${\rm Pr}(0) = 1 – p$ und ${\rm Pr}(1) = p$ haben alle Momente den genau gleichen Wert $p$: $$m_1 = m_2 = m_3 = m_4 = ... \hspace{0.05cm}= p.$$ Mit den obigen Gleichungen erhält man dann für die ersten drei Zentralmomente: $$\begin{align*} \mu_2 & = m_2 - m_1^2 = p -p^2, \\ \mu_3 & = m_3 - 3 \cdot m_2 \cdot m_1 + 2 \cdot m_1^3 = p - 3 \cdot p^2 + 2 \cdot p^3, \\ \mu_4 & = m_4 - 4 \cdot m_3 \cdot m_1 + 6 \cdot m_2 \cdot m_1^2 - 3 \cdot m_1^4 = p - 4 \cdot p^2 + 6 \cdot p^3- 3 \cdot p^4. \end{align*}$$
Einige häufig auftretende Zentralmomente
Aus der Definition im letzten Abschnitt können folgende Kenngrößen abgeleitet werden:
- Die Varianz $σ^2$ der betrachteten Zufallsgröße ist das Zentralmoment zweiter Ordnung $(\mu_2).$ Diese entspricht physikalisch der Wechselleistung und die Streuung $σ$ gibt den Effektivwert an. Aus dem linearen und dem quadratischen Mittelwert ist die Varianz nach dem in folgender Weise berechenbar ⇒ Satz von Steiner:
$$\sigma^{2} = m_2 - m_1^{2}.$$
- Die sog. Charliersche Schiefe $S$ bezeichnet das auf $σ^3$ bezogene dritte Zentralmoment. Bei symmetrischer Dichtefunktion ist diese Kenngröße immer 0. Je größer $S = \mu_3/σ^3$ ist, um so unsymmetrischer verläuft die WDF um den Mittelwert $m_1$. Beispielsweise ergibt sich für die Exponentialverteilung (unabhängig vom Verteilungsparameter $λ$) die Schiefe $S =$ 2.
- Auch das Zentralmoment vierter Ordnung spielt für die Analyse statistischer Größen eine Rolle. Als Kurtosis bezeichnet man den Quotienten $K = \mu_4/σ^4.$ Bei einer gaußverteilten Zufallsgröße ergibt sich hierfür immer der Wert $K =$ 3. Anhand dieser Kenngröße kann man beispielsweise überprüfen, ob eine vorliegende Zufallsgröße tatsächlich gaußisch ist.
- Weist die WDF weniger Ausläufer auf als die Gaußverteilung, so ist die Kurtosis $K$ < 3, zum Beispiel gilt für die Gleichverteilung $K =$ 1.8. Dagegen weist $K$ > 3 darauf hin, dass die Ausläufer ausgeprägter als bei der Gaußverteilung sind. Für die Laplaceverteilung ⇒ zweiseitige Exponentialverteilung ergibt sich beispielsweise der Wert $K =$ 6.
Berechnung als Zeitmittelwert
Die Erwartungswertberechnung nach den bisherigen Gleichungen dieses Abschnitts entspricht einer Scharmittelung, das heißt einer Mittelung über alle möglichen Werte $x_\mu$.
Die Momente $m_k$ können aber auch als Zeitmittelwerte bestimmt werden, wenn der die Zufallsgröße erzeugende stochastische Prozess stationär und ergodisch ist. Die genaue Definition für einen solchen Zufallsprozess finden Sie in Kapitel 4.4. Eine Zeitmittelung wird im Folgenden stets durch eine überstreichende Linie gekennzeichnet.
Bei zeitdiskreter Betrachtung wird das Zufallssignal $x(t)$ durch die Zufallsfolge $〈x_ν〉$ ersetzt. Bei endlicher Folgenlänge lauten diese Zeitmittelwerte mit $ν =$ 1, 2, ... , $N:$ $$m_k=\overline{x_{\nu}^{k}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{k},$$ $$m_1=\overline{x_{\nu}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu},$$ $$m_2=\overline{x_{\nu}^{2}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{2}.$$
Sollen die Momente (oder Erwartungswerte) per Simulation bestimmt werden, so geschieht dies in der Praxis meist durch eine Zeitmittelung. Die Momentenberechnung als Zeitmittelwerte unterscheidet sich bei diskreten bzw. kontinuierlichen Zufallsgrößen nur mariginal.
Die in diesem Abschnitt behandelte Thematik ist in einem Lernvideo zusammengefasst: Momente von diskreten Zufallsgrößen (Dauer: 6:30)
Charakteristische Funktion
Ein weiterer Sonderfall eines Erwartungswertes ist die charakteristische Funktion, wobei hier für die Bewertungsfunktion $g(x) = exp(\rm {j}Ωx)$ zu setzen ist: $$C_x({\it \Omega}) = {\rm E}[{\rm e}^{{\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}] = \int_{-\infty}^{+\infty} {\rm e}^{{\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\cdot f_{\rm x}(x) \hspace{0.1cm}{\rm d}x.$$
Ein Vergleich mit dem Buch Signaldarstellung – Kapitel 3.1 zeigt, dass die charakteristische Funktion die Fourierrücktransformierte der Wahrscheinlichkeitsdichtefunktion darstellt: $$C_x ({\it \Omega}) \hspace{0.3cm} \circ \!\!-\!\!\!-\!\!\!-\!\! \bullet \hspace{0.3cm} f_{\rm x}(x).$$
Ist die Zufallsgröße $x$ dimensionslos, so ist auch das Argument $Ω$ der charakteristischen Funktion ohne Einheit. Das Symbol $Ω$ wurde gewählt, da das Argument hier einen gewissen Bezug zur Kreisfrequenz beim zweiten Fourierintegral aufweist (gegenüber der Darstellung im $f$-Bereich fehlt der Faktor 2π im Exponenten). Es wird aber nochmals eindringlich darauf hingewiesen, dass – wenn man einen Bezug zur Systemtheorie herstellen will – $C_x(Ω)$ der „Zeitfunktion” und $f_{\rm x}(x)$ der „Spektralfunktion” entspricht.
Entwickelt man die komplexe Funktion exp( $\rm {j}Ωx$) in eine Potenzreihe und vertauscht Summation und Erwartungswertbildung, so folgt die Reihendarstellung der charakteristischen Funktion: $$C_x ( {\it \Omega}) = 1 + \sum_{k=1}^{\infty}\hspace{0.2cm}\frac{m_k}{k!} \cdot ({\rm j} \hspace{0.01cm}{\it \Omega})^k .$$ Die Aufgabe A3.4 zeigt weitere Eigenschaften der charakteristischen Funktion auf.
Bei einer symmetrischen binären (zweipunktverteilten) Zufallsgröße $x ∈$ {–1, +1} mit den Wahrscheinlichkeiten Pr(–1) = Pr(+1) = 1/2 verläuft die charakteristische Funktion cosinusförmig. Das Analogon in der Systemtheorie ist, dass das Spektrum eines Cosinussignals mit der Kreisfrequenz $Ω_0$ aus zwei Diracfunktionen bei $±Ω_0$ besteht.
Eine Gleichverteilung zwischen $±y_0$ besitzt nach den Gesetzen der Fouriertransformation – Näheres im Buch Signaldarstellung, Kapitel 3.1 – die folgende charakteristische Funktion: $$\begin{align*} C_y({\it \Omega}) = \frac{1}{2 y_0} \cdot \int_{-y_0}^{+y_0} {\rm e}^{{\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} y} \,{\rm d}y &= \frac{ {\rm e}^{ {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm}{\it \Omega} } - {\rm e}^{-{\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm} {\it \Omega} } }{2 {\rm j} \cdot y_0 \cdot {\it \Omega} } = \frac{ {\rm sin}(y_0 \cdot {\it \Omega})}{ y_0 \cdot {\it \Omega} } = {\rm si}(y_0 \cdot {\it \Omega}). \end{align*}$$ Die Funktion si( $x) = \sin(x)/x$ kennen wir bereits aus dem Buch Signaldarstellung. Sie ist auch unter dem Namen Spaltfunktion bekannt.