Ereignis und Wahrscheinlichkeit
Ereignisse
Ein endlicher Ergebnisraum eines Zufallsexperimentes ist eine nichtleere Menge
$$ \Omega=\left\{\omega_{1}, \omega_{2}, \ldots, \omega_{N}\right\}. $$ I.e., $\Omega$ enthält alle mögliche Ergebnisse.
Die Elemente $\omega_{n} \in \Omega$ heißen Ergebnisse, die möglichen Ausgänge eines Zufallsexperiments.
Jede Teilmenge $A \subset \Omega$ heißt Ereignis.
Jede einelementige Teilmenge $\left\{\omega_{n}\right\} \subset \Omega$ heißt Elementarereignis (ZUsammenfassung von einem oder mehreren Ergebnissen).
$\rightarrow$ Der Ergebnisraum $\Omega$ (das sichere Ereignis) und die leere Menge $\emptyset$ (das unmögliche Ereignis) sind stets Ereignisse.
Für zwei Ereignisse $A$ und $B$
Gilt $A \subset B$, so ist $A$ ein Teilereignis von $B$.
Der Durchschnitt $(A \cap B)$, die Vereinigung $(A \cup B)$, und die Differenz $(A-B)$ sind auch Ereignisse.
- Durchschnitt und Vereinigung sind kommutativ, assoziativ und distributiv.
Das entgegengesetzte Ereignis $\bar{A}$ von $A$ ist auch ein Ereignis und wird als Negation oder Komplement bezeichnet.
Gilt $A \cap B=\varnothing$, so heißen $A$ und $B$ disjunkt ode unvereinbar .
de MORGANschen Formeln
$$ \begin{array}{l} \overline{A \cup B}=\bar{A} \cap \bar{B} \\ \overline{A \cap B}=\bar{A} \cup \bar{B} \end{array} $$
Beispiel
Würfel werfen.
- Ergebnisraum $\Omega = \\{1, 2, 3, 4, 5, 6\\}$ (Also $\|\Omega\| = 6$)
- Beispiel Ereignise
- “Der Würfel zeight eine ungerade Zahl.”
- “Der Würfel zeigt eine 3.”
- “Der Würfel zeigt eine 3.” (das unmögliche Ereignis)
- Ereignis $A$ = “Der Würfel zeight eine ungerade Zahl.” = $\\{1, 3, 5\\}$. Ereignis $B$ = “Der Würfel zeight eine gerade Zahl” = $\\{2, 4, 6\\}$. $A \cap B = \emptyset$ $\Rightarrow$ $A$ und $B$ sind disjunkt oder unvereinbar.
Reference:
Wahrscheinlichkeit (von Kolmogoroff)
Ein nichtleeres System $\mathfrak{B}$ von Teilmengen eines Ergebnisraums $\Omega$ heißt $\sigma$-Algebra (über $\Omega$), wenn gilt
$$ \begin{array}{c} A \in \mathfrak{B} \quad \Rightarrow \quad \bar{A} \in \mathfrak{B}, \\ A_{n} \in \mathfrak{B} ; n=1,2, \ldots \quad \Rightarrow \quad \bigcup_{n=1}^{\infty} A_{n} \in \mathfrak{B}. \end{array} $$Ein höchstens abzählbares System
$$\left\{A_{n} \in \mathfrak{B}: A_{k} \cap A_{n}=\varnothing, k \neq n\right\}$$heißt vollständige Ereignisdisjunktion, wenn gilt $\bigcup_{n=1}^{\infty} A_{n}=\Omega$ .
Kolmogoroffsche Axiome
Gegeben seien ein Ergebnisraum $\Omega$ und eine geeignete $\sigma$-Algebra $\mathfrak{B}$ über $\Omega$. Die Elemente von $\mathfrak{B}$ sind also die Ereignisse eines Zufallsexperiments.
Eine Funktion $P$, die jedem Ereignis $A \in \mathfrak{B}$ eine relle Zahl zuordnet, erfülle
$$ \begin{aligned} \mathrm{P}(\Omega) &=1 \quad &(\text{Normiertheit})\\ \mathrm{P}(A) & \geq 0 \quad \forall A \in \mathfrak{B} \quad &(\text{Nicht-negativität}) \\ \mathrm{P}\left(\bigcup_{n=1}^{\infty} A_{n}\right) &=\sum_{n=1}^{\infty} \mathrm{P}\left(A_{n}\right) \quad A_i \cap A_j = \emptyset, \forall i,j \quad &(\text{Additivität}) \end{aligned} $$dann heißt $P(A)$ die Wahrscheinlichkeit des Ereignisses $A$.
Beispiel
Würfelwurf
Ergebnisraum $\Omega = \\{1, 2, 3, 4, 5, 6\\}$
Ereignis $E = \text{Zahlen von 1 bis 6}$, also $E_i$ ist die Zahl $i$ (z.B $E_1$ ist die Zahl 1).
Dann haben wir:
$$ \begin{aligned} P(E_1) &= \frac{1}{6} \\ P(E_2) &= \frac{1}{6} \\ P(\Omega) &= \frac{6}{6} = 1 \\ P(E_1 \cup E_2) &= \frac{1}{6} + \frac{1}{6} = \frac{2}{6} \quad (E_1 \cap E_2 = \emptyset) \end{aligned} $$Reference:
<div style="position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;">
<iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen="allowfullscreen" loading="eager" referrerpolicy="strict-origin-when-cross-origin" src="https://www.youtube.com/embed/GtpN4SRESaA?autoplay=0&controls=1&end=0&loop=0&mute=0&start=0" style="position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;" title="YouTube video"
></iframe>
</div>
Hieraus folgt
$$ \begin{aligned} \mathrm{P}(\varnothing) &=0, \\ \mathrm{P}(\bar{A}) &=1-\mathrm{P}(A), \\ 0 \leq \mathrm{P}(A) & \leq 1, \\ \mathrm{P}(A \cup B) &=\mathrm{P}(A)+\mathrm{P}(B)-\mathrm{P}(A \cap B), \\ \mathrm{P}\left(\bigcup_{n=1}^{\infty} A_{n}\right) &=1 \quad \text { für jede vollständige Ereignisdisjunktion } A_{n} . \end{aligned} $$Bedingte Wahrscheinlichkeiten
Sei $B \subset \Omega$ als vorausgesetztes Ereignis, $A, B \in \mathfrak{B}$ und $\mathrm{P}(B)>0$. Dann heißt
$$ \mathrm{P}(A \mid B)=\frac{\mathrm{P}(A \cap B)}{\mathrm{P}(B)} $$bedingte Wahrscheinlichkeit von $A$ unter der Bedingung $B$.
Multiplikationsregel für Wahrscheinlichkeiten
$$ \mathrm{P}(A \cap B)=\mathrm{P}(A \mid B) \mathrm{P}(B) $$Im allgemein ist $\mathrm{P}(A \mid B) \neq \mathrm{P}(B \mid A)$. Es gilt die Beziehung
$$ \mathrm{P}(A \mid B) \mathrm{P}(B)=\mathrm{P}(A \cap B) = \mathrm{P}(B \mid A) \mathrm{P}(A) $$Verallgemeinierung: Die wiederholte Anwendung der Multiplikationsregel auf den Durchschnitt $N$ zufälliger Ereignisse liefert
$$ \begin{aligned} &\mathrm{P}\left(\bigcap_{n=1}^{N} A_{n}\right) \\ =&\mathrm{P}\left(\bigcap_{n=2}^{N} A_{n} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right) \\ =&\mathrm{P}\left(\bigcap_{n=3}^{N} A_{n} \mid A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{2} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right) \\ =&\mathrm{P}\left(\bigcap_{n=4}^{N} A_{n} \mid A_{3} \cap A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{3} \mid A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{2} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right) \\ =&\mathrm{P}\left(A_{N} \mid \bigcap_{n=1}^{N-1} A_{n}\right) \cdots \mathrm{P}\left(A_{4} \mid A_{3} \cap A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{3} \mid A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{2} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right) \end{aligned} $$Beispiel
Vereinfachung mit 3 Ereignisse
$$ \begin{array}{ll} &P(A) \cdot P(B \mid A) \cdot P(C \mid A \cap B) \\\\ =&P(A) \cdot \frac{P(A \cap B)}{P(A)} \cdot \frac{P(C \mid A \cap B)}{P(A \cap B)} \\\\ =&P(A \cap B \cap C) \end{array} $$Ref:
Formel von der totalen Wahrscheinlichkeit
Die Ereignisse $A_{n}(1 \leq n \leq N)$ seien eine vollständige Ereignisdisjunktion (also $A_i \cap A_j = \emptyset, \forall i, j$ ) und es gelte $\mathrm{P}\left(A_{n}\right)>0, \forall n$ . Dann folgt für $\forall B \in \mathfrak{B}$ die Formel von der totalen Wahrscheinlichkeit
$$ \mathrm{P}(B)=\sum_{n=1}^{N} \mathrm{P}\left(B \mid A_{n}\right) \mathrm{P}\left(A_{n}\right) $$Beispiel
$A \cap \bar{A} = \emptyset$
$$ \begin{array}{l} P(B)&=P(B \cap A)+P(B \cap \bar{A}) \\\\ &=P(A)P(B \mid A)+P(\bar{A})P(B \mid \bar{A}) \end{array} $$Beispiel
Und wenn $P(B) > 0$ ist, folgt die Formel von Bayes:
$$ \mathrm{P}\left(A_{n} \mid B\right)=\frac{\mathrm{P}\left(B \mid A_{n}\right) \mathrm{P}\left(A_{n}\right)}{\sum_{k=1}^{N} \mathrm{P}\left(B \mid A_{k}\right) \mathrm{P}\left(A_{k}\right)} $$Im allgemeinen ist $\mathrm{P}(A) \neq \mathrm{P}(A \mid B)$. Gilt aber für $A, B \in \mathfrak{B}$
$$ \mathrm{P}(A \mid B)=\mathrm{P}(A), $$so heißt $A$ unabhängig von $B$.
Für unabhängige Ereignisse folgt hieraus
$$ \begin{array}{c} \mathrm{P}(A \cap B)=\mathrm{P}(A \mid B) \mathrm{P}(B)=\mathrm{P}(A) \mathrm{P}(B) \\ \mathrm{P}(B \mid A)=\frac{\mathrm{P}(A \cap B)}{\mathrm{P}(A)}=\mathrm{P}(B) \end{array} $$