Ereignis und Wahrscheinlichkeit

Ereignis und Wahrscheinlichkeit

Ereignisse

Ein endlicher Ergebnisraum eines Zufallsexperimentes ist eine nichtleere Menge

$$ \Omega=\left\{\omega_{1}, \omega_{2}, \ldots, \omega_{N}\right\}. $$ I.e., $\Omega$ enthält alle mögliche Ergebnisse.

Die Elemente $\omega_{n} \in \Omega$ heißen Ergebnisse, die möglichen Ausgänge eines Zufallsexperiments.

Jede Teilmenge $A \subset \Omega$ heißt Ereignis.

  • Jede einelementige Teilmenge $\left\{\omega_{n}\right\} \subset \Omega$ heißt Elementarereignis (ZUsammenfassung von einem oder mehreren Ergebnissen).

    $\rightarrow$ Der Ergebnisraum $\Omega$ (das sichere Ereignis) und die leere Menge $\emptyset$ (das unmögliche Ereignis) sind stets Ereignisse.

Für zwei Ereignisse $A$ und $B$

  • Gilt $A \subset B$, so ist $A$ ein Teilereignis von $B$.

  • Der Durchschnitt $(A \cap B)$, die Vereinigung $(A \cup B)$, und die Differenz $(A-B)$ sind auch Ereignisse.

    • Durchschnitt und Vereinigung sind kommutativ, assoziativ und distributiv.
  • Das entgegengesetzte Ereignis $\bar{A}$ von $A$ ist auch ein Ereignis und wird als Negation oder Komplement bezeichnet.

  • Gilt $A \cap B=\varnothing$, so heißen $A$ und $B$ disjunkt ode unvereinbar .

  • de MORGANschen Formeln

    $$ \begin{array}{l} \overline{A \cup B}=\bar{A} \cap \bar{B} \\ \overline{A \cap B}=\bar{A} \cup \bar{B} \end{array} $$
Beispiel

Würfel werfen.

  • Ergebnisraum $\Omega = \\{1, 2, 3, 4, 5, 6\\}$ (Also $\|\Omega\| = 6$)
  • Beispiel Ereignise
    • “Der Würfel zeight eine ungerade Zahl.”
    • “Der Würfel zeigt eine 3.”
    • “Der Würfel zeigt eine 3.” (das unmögliche Ereignis)
  • Ereignis $A$ = “Der Würfel zeight eine ungerade Zahl.” = $\\{1, 3, 5\\}$. Ereignis $B$ = “Der Würfel zeight eine gerade Zahl” = $\\{2, 4, 6\\}$. $A \cap B = \emptyset$ $\Rightarrow$ $A$ und $B$ sind disjunkt oder unvereinbar.

Reference:

Wahrscheinlichkeit (von Kolmogoroff)

Ein nichtleeres System $\mathfrak{B}$ von Teilmengen eines Ergebnisraums $\Omega$ heißt $\sigma$-Algebra (über $\Omega$), wenn gilt

$$ \begin{array}{c} A \in \mathfrak{B} \quad \Rightarrow \quad \bar{A} \in \mathfrak{B}, \\ A_{n} \in \mathfrak{B} ; n=1,2, \ldots \quad \Rightarrow \quad \bigcup_{n=1}^{\infty} A_{n} \in \mathfrak{B}. \end{array} $$

Ein höchstens abzählbares System

$$\left\{A_{n} \in \mathfrak{B}: A_{k} \cap A_{n}=\varnothing, k \neq n\right\}$$

heißt vollständige Ereignisdisjunktion, wenn gilt $\bigcup_{n=1}^{\infty} A_{n}=\Omega$ .

Kolmogoroffsche Axiome

Gegeben seien ein Ergebnisraum $\Omega$ und eine geeignete $\sigma$-Algebra $\mathfrak{B}$ über $\Omega$. Die Elemente von $\mathfrak{B}$ sind also die Ereignisse eines Zufallsexperiments.

Eine Funktion $P$, die jedem Ereignis $A \in \mathfrak{B}$ eine relle Zahl zuordnet, erfülle

$$ \begin{aligned} \mathrm{P}(\Omega) &=1 \quad &(\text{Normiertheit})\\ \mathrm{P}(A) & \geq 0 \quad \forall A \in \mathfrak{B} \quad &(\text{Nicht-negativität}) \\ \mathrm{P}\left(\bigcup_{n=1}^{\infty} A_{n}\right) &=\sum_{n=1}^{\infty} \mathrm{P}\left(A_{n}\right) \quad A_i \cap A_j = \emptyset, \forall i,j \quad &(\text{Additivität}) \end{aligned} $$

dann heißt $P(A)$ die Wahrscheinlichkeit des Ereignisses $A$.

Beispiel

Würfelwurf

Ergebnisraum $\Omega = \\{1, 2, 3, 4, 5, 6\\}$

Ereignis $E = \text{Zahlen von 1 bis 6}$, also $E_i$ ist die Zahl $i$ (z.B $E_1$ ist die Zahl 1).

Dann haben wir:

$$ \begin{aligned} P(E_1) &= \frac{1}{6} \\ P(E_2) &= \frac{1}{6} \\ P(\Omega) &= \frac{6}{6} = 1 \\ P(E_1 \cup E_2) &= \frac{1}{6} + \frac{1}{6} = \frac{2}{6} \quad (E_1 \cap E_2 = \emptyset) \end{aligned} $$

Reference:

<div style="position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;">
  <iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen="allowfullscreen" loading="eager" referrerpolicy="strict-origin-when-cross-origin" src="https://www.youtube.com/embed/GtpN4SRESaA?autoplay=0&controls=1&end=0&loop=0&mute=0&start=0" style="position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;" title="YouTube video"
  ></iframe>
</div>

Hieraus folgt

$$ \begin{aligned} \mathrm{P}(\varnothing) &=0, \\ \mathrm{P}(\bar{A}) &=1-\mathrm{P}(A), \\ 0 \leq \mathrm{P}(A) & \leq 1, \\ \mathrm{P}(A \cup B) &=\mathrm{P}(A)+\mathrm{P}(B)-\mathrm{P}(A \cap B), \\ \mathrm{P}\left(\bigcup_{n=1}^{\infty} A_{n}\right) &=1 \quad \text { für jede vollständige Ereignisdisjunktion } A_{n} . \end{aligned} $$

Bedingte Wahrscheinlichkeiten

Sei $B \subset \Omega$ als vorausgesetztes Ereignis, $A, B \in \mathfrak{B}$ und $\mathrm{P}(B)>0$. Dann heißt

$$ \mathrm{P}(A \mid B)=\frac{\mathrm{P}(A \cap B)}{\mathrm{P}(B)} $$

bedingte Wahrscheinlichkeit von $A$ unter der Bedingung $B$.

Multiplikationsregel für Wahrscheinlichkeiten

$$ \mathrm{P}(A \cap B)=\mathrm{P}(A \mid B) \mathrm{P}(B) $$

Im allgemein ist $\mathrm{P}(A \mid B) \neq \mathrm{P}(B \mid A)$. Es gilt die Beziehung

$$ \mathrm{P}(A \mid B) \mathrm{P}(B)=\mathrm{P}(A \cap B) = \mathrm{P}(B \mid A) \mathrm{P}(A) $$

Verallgemeinierung: Die wiederholte Anwendung der Multiplikationsregel auf den Durchschnitt $N$ zufälliger Ereignisse liefert

$$ \begin{aligned} &\mathrm{P}\left(\bigcap_{n=1}^{N} A_{n}\right) \\ =&\mathrm{P}\left(\bigcap_{n=2}^{N} A_{n} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right) \\ =&\mathrm{P}\left(\bigcap_{n=3}^{N} A_{n} \mid A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{2} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right) \\ =&\mathrm{P}\left(\bigcap_{n=4}^{N} A_{n} \mid A_{3} \cap A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{3} \mid A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{2} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right) \\ =&\mathrm{P}\left(A_{N} \mid \bigcap_{n=1}^{N-1} A_{n}\right) \cdots \mathrm{P}\left(A_{4} \mid A_{3} \cap A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{3} \mid A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{2} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right) \end{aligned} $$
Beispiel

Vereinfachung mit 3 Ereignisse

$$ \begin{array}{ll} &P(A) \cdot P(B \mid A) \cdot P(C \mid A \cap B) \\\\ =&P(A) \cdot \frac{P(A \cap B)}{P(A)} \cdot \frac{P(C \mid A \cap B)}{P(A \cap B)} \\\\ =&P(A \cap B \cap C) \end{array} $$

Ref:

Formel von der totalen Wahrscheinlichkeit

Die Ereignisse $A_{n}(1 \leq n \leq N)$ seien eine vollständige Ereignisdisjunktion (also $A_i \cap A_j = \emptyset, \forall i, j$ ) und es gelte $\mathrm{P}\left(A_{n}\right)>0, \forall n$ . Dann folgt für $\forall B \in \mathfrak{B}$ die Formel von der totalen Wahrscheinlichkeit

$$ \mathrm{P}(B)=\sum_{n=1}^{N} \mathrm{P}\left(B \mid A_{n}\right) \mathrm{P}\left(A_{n}\right) $$
Beispiel

$A \cap \bar{A} = \emptyset$

$$ \begin{array}{l} P(B)&=P(B \cap A)+P(B \cap \bar{A}) \\\\ &=P(A)P(B \mid A)+P(\bar{A})P(B \mid \bar{A}) \end{array} $$
Beispiel

Und wenn $P(B) > 0$ ist, folgt die Formel von Bayes:

$$ \mathrm{P}\left(A_{n} \mid B\right)=\frac{\mathrm{P}\left(B \mid A_{n}\right) \mathrm{P}\left(A_{n}\right)}{\sum_{k=1}^{N} \mathrm{P}\left(B \mid A_{k}\right) \mathrm{P}\left(A_{k}\right)} $$

Im allgemeinen ist $\mathrm{P}(A) \neq \mathrm{P}(A \mid B)$. Gilt aber für $A, B \in \mathfrak{B}$

$$ \mathrm{P}(A \mid B)=\mathrm{P}(A), $$

so heißt $A$ unabhängig von $B$.

Für unabhängige Ereignisse folgt hieraus

$$ \begin{array}{c} \mathrm{P}(A \cap B)=\mathrm{P}(A \mid B) \mathrm{P}(B)=\mathrm{P}(A) \mathrm{P}(B) \\ \mathrm{P}(B \mid A)=\frac{\mathrm{P}(A \cap B)}{\mathrm{P}(A)}=\mathrm{P}(B) \end{array} $$