Einige grundlegende Definitionen

Aus LNTwww
Wechseln zu:Navigation, Suche

  • [[Stochastische Signaltheorie/{{{Vorherige Seite}}} | Vorherige Seite]]
  • Nächste Seite
  • [[Stochastische Signaltheorie/{{{Vorherige Seite}}} | Vorherige Seite]]
  • Nächste Seite

# ÜBERBLICK ZUM ERSTEN HAUPTKAPITEL #


Dieses erste Kapitel bringt eine kurze Zusammenfassung der  Wahrscheinlichkeitsrechnung,  die sicher viele von Ihnen bereits aus der Schulzeit kennen und die eine wichtige Voraussetzung für das Verständnis der nachfolgenden Kapitel darstellt.

Dieses Kapitel beinhaltet

  • einige  »Definitionen«  wie  »Zufallsexperiment« , »Ergebnis« ,  »Ereignis«  und  »Wahrscheinlichkeit«,
  • die für die Wahrscheinlichkeitsrechnung relevanten  »mengentheoretischen Grundlagen« ,
  • die Verdeutlichung von  »Statistischer Abhängigkeit«  bzw.  »Statistischer Unabhängigkeit« ,
  • die mathematische Behandlung von statistischen Abhängigkeiten durch  »Markovketten«.


Experiment und Ergebnis


Ausgangspunkt einer jeden statistischen Untersuchung ist ein  Zufallsexperiment.  Darunter versteht man

  • einen unter stets gleichen Bedingungen beliebig oft wiederholbaren Versuch mit ungewissem  Ergebnis  $E$,
  • bei dem jedoch die Menge  $ \{E_μ \}$  der möglichen Ergebnisse angebbar ist.


$\text{Definition:}$  Die Anzahl der möglichen Ergebnisse bezeichnet man als den  Ergebnisumfang  $M$.  Dann gilt:

$$E_\mu \in G = \{E_\mu\}= \{E_1, \hspace{0.1cm}\text{...} \hspace{0.1cm}, E_M \} .$$

Die Laufvariable  $μ$  kann alle ganzzahligen Werte zwischen  $1$  und  $M$  annehmen.  $G$  nennt man den Ereignisraum oder die  Grundmenge.


$\text{Beispiel 1:}$  Beim Experiment „Münzwurf” gibt es nur zwei mögliche Ergebnisse,  nämlich „Zahl” und „Bild”   ⇒   $M = 2$.  Dagegen sind beim Zufallsexperiment „Werfen einer Roulettekugel” insgesamt  $M = 37$  verschiedene Ergebnisse möglich,  und es gilt in diesem Fall für die Grundmenge:

$$G = \{E_\mu\} = \{0, 1, 2, \text{...} \hspace{0.1cm} , 36\}.$$

Klassische Definition der Wahrscheinlichkeit


Wir setzen zunächst voraus,  dass jeder Versuch genau ein einziges Ergebnis aus  $G$  zur Folge hat und dass jedes dieser  $M$  Ergebnisse in gleicher Weise  (ohne Bevorzugung oder Benachteiligung)  möglich ist.

$\text{Definition:}$  Mit dieser Annahme gilt für die  Wahrscheinlichkeit  (englisch:  Probability)  eines jeden Ergebnisses  $E_μ$  gleichermaßen:

$$\Pr (E_\mu) = 1/{M}.$$


Dies ist die  "klassische Definition der Wahrscheinlichkeit".  ${\rm Pr}(\text{...} )$  steht für  "Probability".  Dies ist als eine mathematische Funktion zu verstehen.

$\text{Beispiel 2:}$  Beim Zufallsexperiment „Münzwurf” gilt für die Wahrscheinlichkeiten der beiden möglichen Ergebnisse:

$$\rm Pr(„Zahl”)=Pr(„Bild”)=1/2.$$

Dies setzt voraus,  dass jeder Versuch entweder mit „Zahl” oder mit „Bild” ausgeht und dass nicht bei einem Versuch die Münze auf ihrem Rand zu stehen kommen kann.

Auch beim Versuch „Werfen einer Roulettekugel” sind die Wahrscheinlichkeiten  ${\rm Pr}( E_μ) = 1/37$  nur dann für alle Zahlen von  $0$  bis  $36$  gleich,  wenn der Roulettetisch nicht manipuliert wurde.


Bitte beachten Sie:

Wahrscheinlichkeitsrechnung und Statistik können nur dann fundierte Aussagen liefern,  wenn alle implizit vereinbarten Voraussetzungen tatsächlich erfüllt sind.

  • Diese Bedingungen zu überprüfen ist nicht Aufgabe der Statistik,  sondern von denjenigen,  die diese nutzen. 
  • Da gegen diese Grundregel oft verstoßen wird,  hat die Statistik in der Gesellschaft einen viel schlechteren Ruf,  als es ihr eigentlich zustehen würde.

Ereignis und Ereignismenge


$\text{Definitionen:}$ 

(1)   Unter einem  Ereignis  verstehen wir eine Menge bzw. die Zusammenfassung von Ergebnissen.

  • Die Menge aller Ereignisse bezeichnen wir als die  Ereignismenge  $\{A_i \}$.
  • Da die Anzahl  $I$  der möglichen Ereignisse  $\{A_i \}$  im Allgemeinen nicht mit der Anzahl  $M$  der möglichen Ergebnisse  – also der Elemente von  $G = \{ E_μ \}$  –  übereinstimmt,  werden hier unterschiedliche Indizes gewählt.


(2)   Setzt sich ein Ereignis  $A_i$  aus  $K$  (elementaren)  Ergebnissen zusammen,  so wird die  Ereigniswahrscheinlichkeit  wie folgt definiert:

$${\rm Pr} (A_i) = \frac{K}{M} = \frac{\rm Anzahl\hspace{0.1cm}der\hspace{0.1cm}g\ddot{u}nstigen\hspace{0.1cm}Ergebnisse}{\rm Anzahl\hspace{0.1cm}der\hspace{0.1cm}m\ddot{o}glichen\hspace{0.1cm}Ergebnisse}.$$


Diese Gleichung nennt man die Wahrscheinlichkeitsdefinition nach  Laplace.

  • Als „günstige Ergebnisse” werden dabei solche Ergebnisse bezeichnet,  die zum zusammengesetzten Ereignis  $A_i$  gehören.
  • Aus dieser Definition geht bereits hervor, dass eine Wahrscheinlichkeit stets zwischen  $0$  und  $1$  liegen muss  (einschließlich dieser beiden Grenzen).


$\text{Beispiel 3:}$  Wir betrachten wieder das Experiment „Werfen eines Würfels”.  Die möglichen Ergebnisse sind somit  $E_μ ∈ G = \{1, 2, 3, 4, 5, 6\}$.

Definieren wir nun zwei Ereignisse  $(I = 2)$, nämlich

  • $A_1 = \big[$die Augenzahl ist geradzahlig$\big] = \{2, 4, 6\}$,  und
  • $A_2 = \big[$die Augenzahl ist ungeradzahlig$\big] = \{1, 3, 5\}$,


so ist die Ereignismenge  $\{A_1, A_2\}$  gleich der Grundmenge  $G$.  Die Ereignisse  $A_1$  und  $A_2$  stellen für dieses Beispiel ein so genanntes  "Vollständiges System"  dar.

Dagegen ist die weitere Ereignismenge  $\{A_3, A_4\}$  ungleich der Grundmenge  $G$,  wenn man die Einzelereignisse wie folgt definiert:

  • $A_3 = \big[$die Augenzahl ist kleiner als 3$\big] = \{1, 2\}$,
  • $A_4 =\big[$die Augenzahl ist größer als 3$\big] = \{4, 5, 6\}$.


Hier beinhaltet die Ereignismenge  $\{A_3, A_4\}$  nicht das Element „3”.  Die Wahrscheinlichkeiten der hier definierten Ereignisse sind  ${\rm Pr}( A_3) = 1/3$  und  ${\rm Pr}( A_1) ={\rm Pr}(A_2) = {\rm Pr}(A_4) = 1/2$.


Die Thematik dieses Kapitels wird im Lernvideo  Klassische Definition der Wahrscheinlichkeit  anhand von Beispielen verdeutlicht.


Aufgaben zum Kapitel


Aufgabe 1.1: Würfelspiel Mäxchen

Aufgabe 1.1Z: Summe zweier Ternärsignale