Stochastische Signaltheorie/Einige grundlegende Definitionen: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
Zeile 7: Zeile 7:
 
== # ÜBERBLICK ZUM ERSTEN HAUPTKAPITEL # ==
 
== # ÜBERBLICK ZUM ERSTEN HAUPTKAPITEL # ==
 
<br>
 
<br>
Dieses erste Kapitel bringt eine kurze Zusammenfassung der ''Wahrscheinlichkeitsrechnung'', die sicher viele von Ihnen bereits aus der Schulzeit kennen und die eine wichtige Voraussetzung für das Verständnis der nachfolgenden Kapitel darstellt.  
+
Dieses erste Kapitel bringt eine kurze Zusammenfassung der&nbsp; '''Wahrscheinlichkeitsrechnung''', die sicher viele von Ihnen bereits aus der Schulzeit kennen und die eine wichtige Voraussetzung für das Verständnis der nachfolgenden Kapitel darstellt.  
  
 
Dieses Kapitel beinhaltet
 
Dieses Kapitel beinhaltet
Zeile 54: Zeile 54:
  
  
''Anmerkung:'' &nbsp; Die Wahrscheinlichkeitsrechnung – und die darauf aufbauende Statistik – kann nur dann fundierte Aussagen liefern, wenn alle implizit vereinbarten Voraussetzungen tatsächlich erfüllt sind.&nbsp; Diese Bedingungen zu überprüfen ist nicht Aufgabe der Statistik, sondern von denjenigen, die diese nutzen.&nbsp; Da gegen diese Grundregel oft verstoßen wird, hat die Statistik in der Gesellschaft einen viel schlechteren Ruf, als es ihr eigentlich zustehen würde.
+
''Anmerkung:'' &nbsp; Die Wahrscheinlichkeitsrechnung – und die darauf aufbauende Statistik – kann nur dann fundierte Aussagen liefern, wenn alle implizit vereinbarten Voraussetzungen tatsächlich erfüllt sind.&nbsp;  
 +
*Diese Bedingungen zu überprüfen ist nicht Aufgabe der Statistik, sondern von denjenigen, die diese nutzen.&nbsp;  
 +
*Da gegen diese Grundregel oft verstoßen wird, hat die Statistik in der Gesellschaft einen viel schlechteren Ruf, als es ihr eigentlich zustehen würde.
  
 
==Ereignis und Ereignismenge==
 
==Ereignis und Ereignismenge==

Aktuelle Version vom 8. November 2019, 15:43 Uhr

  • [[Stochastische Signaltheorie/{{{Vorherige Seite}}} | Vorherige Seite]]
  • Nächste Seite
  • [[Stochastische Signaltheorie/{{{Vorherige Seite}}} | Vorherige Seite]]
  • Nächste Seite

# ÜBERBLICK ZUM ERSTEN HAUPTKAPITEL #


Dieses erste Kapitel bringt eine kurze Zusammenfassung der  Wahrscheinlichkeitsrechnung, die sicher viele von Ihnen bereits aus der Schulzeit kennen und die eine wichtige Voraussetzung für das Verständnis der nachfolgenden Kapitel darstellt.

Dieses Kapitel beinhaltet

  • einige  Definitionen  wie Zufallsexperiment, Ergebnis, Ereignis und Wahrscheinlichkeit,
  • die für die Wahrscheinlichkeitsrechnung relevanten  mengentheoretischen Grundlagen,
  • die Verdeutlichung von  Statistischer Abhängigkeit  bzw.  Statistischer Unabhängigkeit,
  • die mathematische Behandlung von statistischen Abhängigkeiten durch  Markovketten.


Experiment und Ergebnis


Ausgangspunkt einer jeden statistischen Untersuchung ist ein  Zufallsexperiment. Darunter versteht man

  • einen unter stets gleichen Bedingungen beliebig oft wiederholbaren Versuch mit ungewissem  Ergebnis  $E$,
  • bei dem jedoch die Menge  $ \{E_μ \}$  der möglichen Ergebnisse angebbar ist.


$\text{Definition:}$  Die Anzahl der möglichen Ergebnisse bezeichnet man als den  Ergebnisumfang  $M$.  Dann gilt:

$$E_\mu \in G = \{E_\mu\}= \{E_1, \hspace{0.1cm}\text{...} \hspace{0.1cm}, E_M \} .$$

Die Laufvariable  $μ$  kann alle ganzzahligen Werte zwischen  $1$  und  $M$  annehmen.  $G$  nennt man den Ereignisraum oder die  Grundmenge.


$\text{Beispiel 1:}$  Beim Experiment „Münzwurf” gibt es nur zwei mögliche Ergebnisse, nämlich „Zahl” und „Bild”   ⇒   $M = 2$.  Dagegen sind beim Zufallsexperiment „Werfen einer Roulettekugel” insgesamt  $M = 37$  verschiedene Ergebnisse möglich, und es gilt in diesem Fall für die Grundmenge:

$$G = \{E_\mu\} = \{0, 1, 2, \text{...} \hspace{0.1cm} , 36\}.$$

Klassische Definition der Wahrscheinlichkeit


Wir setzen zunächst voraus, dass jeder Versuch genau ein einziges Ergebnis aus  $G$  zur Folge hat und dass jedes dieser  $M$  Ergebnisse in gleicher Weise (ohne Bevorzugung oder Benachteiligung) möglich ist.

$\text{Definition:}$  Mit dieser Annahme gilt für die  Wahrscheinlichkeit  (englisch:  Probability)  eines jeden Ergebnisses  $E_μ$  gleichermaßen:

$$\Pr (E_\mu) = 1/{M}.$$


Dies ist die  klassische Definition der Wahrscheinlichkeit.  ${\rm Pr}(\text{...} )$  steht für  Probability  und ist als eine mathematische Funktion zu verstehen.

$\text{Beispiel 2:}$  Beim Zufallsexperiment „Münzwurf” gilt für die Wahrscheinlichkeiten der beiden möglichen Ergebnisse:

$$\rm Pr(„Zahl”)=Pr(„Bild”)=1/2.$$

Dies setzt voraus, dass jeder Versuch entweder mit „Zahl” oder mit „Bild” ausgeht und dass nicht bei einem Versuch die Münze auf ihrem Rand zu stehen kommen kann.

Auch beim Versuch „Werfen einer Roulettekugel” sind die Wahrscheinlichkeiten  ${\rm Pr}( E_μ) = 1/37$  nur dann für alle Zahlen von  $0$  bis  $36$  gleich, wenn der Roulettetisch nicht manipuliert wurde.


Anmerkung:   Die Wahrscheinlichkeitsrechnung – und die darauf aufbauende Statistik – kann nur dann fundierte Aussagen liefern, wenn alle implizit vereinbarten Voraussetzungen tatsächlich erfüllt sind. 

  • Diese Bedingungen zu überprüfen ist nicht Aufgabe der Statistik, sondern von denjenigen, die diese nutzen. 
  • Da gegen diese Grundregel oft verstoßen wird, hat die Statistik in der Gesellschaft einen viel schlechteren Ruf, als es ihr eigentlich zustehen würde.

Ereignis und Ereignismenge


$\text{Definitionen:}$  Unter einem  Ereignis  verstehen wir eine Menge bzw. die Zusammenfassung von Ergebnissen.

  • Die Menge aller Ereignisse bezeichnen wir als die  Ereignismenge  $\{A_i \}$.
  • Da die Anzahl  $I$  der möglichen Ereignisse  $\{A_i \}$  im Allgemeinen nicht mit der Anzahl  $M$  der möglichen Ergebnisse – also der Elemente von  $G = \{ E_μ \}$  – übereinstimmt, werden hier unterschiedliche Indizes gewählt.


Setzt sich ein Ereignis  $A_i$  aus  $K$  (elementaren) Ergebnissen zusammen, so wird die  Ereigniswahrscheinlichkeit  wie folgt definiert:

$${\rm Pr} (A_i) = \frac{K}{M} = \frac{\rm Anzahl\hspace{0.1cm}der\hspace{0.1cm}g\ddot{u}nstigen\hspace{0.1cm}Ergebnisse}{\rm Anzahl\hspace{0.1cm}der\hspace{0.1cm}m\ddot{o}glichen\hspace{0.1cm}Ergebnisse}.$$


Diese Gleichung nennt man die Wahrscheinlichkeitsdefinition nach  Laplace.

  • Als „günstige Ergebnisse” werden dabei solche Ergebnisse bezeichnet, die zum zusammengesetzten Ereignis  $A_i$  gehören.
  • Aus dieser Definition geht bereits hervor, dass eine Wahrscheinlichkeit stets zwischen  $0$  und  $1$  liegen muss  (einschließlich dieser beiden Grenzen).


$\text{Beispiel 3:}$  Wir betrachten wieder das Experiment „Werfen eines Würfels”. Die möglichen Ergebnisse sind somit  $E_μ ∈ G = \{1, 2, 3, 4, 5, 6\}$.

Definieren wir nun zwei Ereignisse  $(I = 2)$, nämlich

  • $A_1 = \big[$die Augenzahl ist geradzahlig$\big] = \{2, 4, 6\}$,  und
  • $A_2 = \big[$die Augenzahl ist ungeradzahlig$\big] = \{1, 3, 5\}$,


so ist die Ereignismenge  $\{A_1, A_2\}$  gleich der Grundmenge  $G$.  Die Ereignisse  $A_1$  und  $A_2$  stellen für dieses Beispiel ein so genanntes  vollständiges System  dar.

Dagegen ist die weitere Ereignismenge  $\{A_3, A_4\}$  ungleich der Grundmenge  $G$, wenn man die Einzelereignisse wie folgt definiert:

  • $A_3 = \big[$die Augenzahl ist kleiner als 3$\big] = \{1, 2\}$,
  • $A_4 =\big[$die Augenzahl ist größer als 3$\big] = \{4, 5, 6\}$.


Hier beinhaltet die Ereignismenge  $\{A_3, A_4\}$  nicht das Element „3”.  Die Wahrscheinlichkeiten der hier definierten Ereignisse sind  ${\rm Pr}( A_3) = 1/3$  und  ${\rm Pr}( A_1) ={\rm Pr}(A_2) = {\rm Pr}(A_4) = 1/2$.


Die Thematik dieses Kapitels wird im Lernvideo  Klassische Definition der Wahrscheinlichkeit  anhand von Beispielen verdeutlicht.


Aufgaben zum Kapitel


Aufgabe 1.1: Würfelspiel Mäxchen

Aufgabe 1.1Z: Summe zweier Ternärsignale