Zufallsvariable
Zufallsvariablen
Zufallsvariablen werden auf den SI-Übungsblättern durch kleine, fettgedruckte Buchstaben gekennzeichnet, z.B. $X$.
Diese Notation wird nicht auf den handschriftlichen Mitschrieben umgesetzt, sodass Zufallsvariablen und „normale“ Variablen meistens aus dem Kontext heraus unterschieden werden müssen. 🤪
Eine Zufallsvariable ist eine Art Funktion, die jedem Ergebnis $\omega$ deines Zufallsexperiments genau eine Zahl $x$ zuordnet.
- ordnet also den Ergebnissen eines Zufallsexperiments reelle Zahlen zu
- beschreibt sozusagen das Ergebnis eines Zufallsexperiments, das noch nicht durchgeführt wurde
Man sagt Variable, weil deine Zahl, die du am Ende erhältst, eben variabel ist.
‼️Wichtig: zwischen $X$ und $x$ zu unterscheiden.
- $X$: die tatsächliche Zufallsvariable, welche keinen festen Wert hat. Sie bildet das derzeit unbekannte Ergebnis eines Zufallsexperiments ab
- $x$: das Ergebnis nach dem Experiment und steht ist somit eine konkrete Zahl.
Bsp: 2 Würfeln werfen
- Zufallsvariable $X$ = Augensumme
- $P(X = 6)$: “Die Wahrscheinlichkeit, dass die Summe von zwei Würfeln sechs ergibt” (Hier $x=6$)
Diskrete Zufallsvariable
Eine Zufallsvariable wird als diskret bezeichnet, wenn sie nur endlich viele oder abzählbar unendlich viele Werte annimmt.
- Sklaenarten: Nominal- oder Ordinalskala
Bsp: Das Ergebnis beim Würfelwurf ist $x \in \Omega = \\{1, 2, 3, 4, 5, 6\\}$, also $|\Omega| = 6$.
Wahrscheinlichkeitsfunktion
Bei diskreten Zufallsvariablen ermittelt man die Wahrscheinlichkeitsfunktion (Engl. Probability mass function (PMF)), die Wahrscheinlichkeit für ein ganz konkretes Ergebnis angibt.
$$ f(x): \Omega \rightarrow[0,1], x \in \mathbb{N}_{0} $$Die Funktionswert
$$ f(x) = P(X=x) $$entspricht der Wahrscheinlichkeit, dass $X$ den Wert $x$ annimmt. Daher gilt
$$ \sum_{x \in \Omega} f(x)=1 $$Man schreibt für die „Dichte“ einer diskreten Zufallsvariablen, deren Einzelwahrscheinlichkeiten $p_n = P(X = x_n)$ gegeben sind, auch
$$ > f_{X}(x)=\sum_{n=1}^{\infty} \mathrm{P}\left(X=x_{n}\right) \delta\left(x-x_{n}\right)=\sum_{n=1}^{\infty} p_{n} \delta\left(x-x_{n}\right) > $$
- $\delta(\cdot)$: Delta-Distribution
Verteilungsfunktion
Die Verteilungsfunktion (aka. Kumulative Wahrscheinlichkeitsdichte, Engl,. Cumulative Distribution Function (CDF)) gibt an, mit welcher Wahrscheinlichkeit das Ergebnis des Zufallsexperiments kleiner oder gleich eines bestimmten Wertes ist.
- Dafür werden alle Ergebnisse bis zu diesem Wert aggregiert, also „aufaddiert“. Deshalb spricht man auch oft von einer kumulativen Verteilungsfunktion.
Um die diskrete Verteilungsfunktion zu erhalten, werden schrittweise alle Wahrscheinlichkeitswerte kumuliert. Das heißt, man bildet das Integral unter der Wahrscheinlichkeitsfunktion.
$$ F(x): \boldsymbol{\Omega} \rightarrow[\mathbf{0}, \mathbf{1}], X \in \mathbb{N}_{\mathbf{0}} $$ $$ F(x)= P(X \leq x) = \sum_{x_{i} \leq x} f\left(x_{i}\right) $$Eigenschaften
- $\lim _{x \rightarrow-\infty} F_{X}(x)=0 ; \lim _{x \rightarrow \infty} F_{X}(x)=1$
- $F(X)$ ist monoton steigend und rechtseitig stetig
Beispiel
Würfelwurf:
Wahrscheinlichkeitsfunktion:
$$ f(X=k) = \frac{1}{6} \quad k \in \\{1, 2, 3, 4, 5, 6\\} $$Verteilungsfunktion:
$$ F(3) = P(X \leq 3) = \sum_{i\leq 3}f(X=i) = \frac{1}{3} + \frac{1}{3} + \frac{1}{3} $$Differenz zwischen kumulativer Wahrscheinlichkeiten:
$$ F(b) - F(a) = P(a < x \leq b) = P(x\leq b) - P(x \leq a) $$Stetige Zufallsvariable
Eine stetige Zufallsvariable
- ist überabzählbar, also nimmt unendlich viele, nicht abzählbare Werte an.
- meistens bei Messvorgängen der Fall (z.B. Zeit, Längen oder Temperatur)
- Skalenarten: Intervall- oder Rationalskala
Für stetige Zufallsvariable können wir die Wahrscheinlichkeit nur für Intervalle und NICHT für genaue Werte bestimmen.
- Es gibt doch unendlich viele Werte, also ist es unmöglich, ein exaktes Ergebnis festzulegen.
- z.B.
- “Mit welcher Wahrscheinlichkeit ist eine zufällig gewählte Studentin zwischen 165cm und 170cm groß?”
- Man benutzt im stetigen Fall die Verteilungsfunktion zur Berechnung von Wahrscheinlichkeiten.
Dichtefunktion
Die Dichtefunktion (Engl. Probability Density Function (PDF)) oder Dichte beschreibt, “Wie dicht liegen die betrachteten Werte um einen beliebigen Punkt?”
$$ f(x): \mathbf{\Omega} \rightarrow \mathbb{R}^{+} $$- Eigenschaften von $f$:
Unterschied zu Wahrscheinlichkeitsfunktion
Die Dichtefunktion liefert nicht die Wahrscheinlichkeit, sondern NUR die “Wahrscheinlichkeitsdichte”
Bei der stetigen Zufallsvariable, überabzählbar und unendlich viele Ausprägung hat, ist die Wahrscheinlichkeit für jede konkrete Ausprägung gleich 0
$$ P(X=x) = 0 \quad \forall x \in \mathbb{R} $$
Die Wahrscheinlichkeit, dass $X$ einen Wert $x \in [a, b]$ annimmt , entspricht der Fläsche $S$
$$ P(a \leq x \leq b)=\int_{a}^{b} f(x) \mathrm{d} x=S $$Verteilungsfunktion
$$ F(x): \Omega \rightarrow[0,1], x \in \mathbb{R} $$ $$ F(x)=\int f(x) \mathrm{d} x, \quad f(x)=\frac{F(x)}{\mathrm{d} x} $$Die Verteilungsfunktion ist eigentlich die Fläche unter der Dichtfunktion:
$$ F(x)=P(X \leq x=c)=\int_{-\infty}^{c} f(x) \mathrm{d} x $$Die Differenz zwischen zwei Verteilungsfunktion ist also:
$$ F(b)-F(a)=P(a \leq x \leq b)=\int_{a}^{b} f(x) \mathrm{d} x $$Dichtefunktion vs. Verteilungsfunktion
Dichtfunktion beschreibt, wie sind die Wahrscheinlichkeiten konkret verteilt?
Verteilungsfunktion
- Summieren der Wahrscheinlichkeiten $\rightarrow$ Bestimmung der Wahrscheinlichkeit für Intervall
- liefert die Wahrscheinlichkeit dafür, dass ien Ereignis $\leq$ eines bestimmten Werted eintritt
Diskrete Vs. Stetige Zufallsvariable
Zufalls- variable | Diskret | Stetig |
---|---|---|
Beispiel | Würfelwurf | Zeit Temperatur |
Wahrscheinlichkeit für | bestimmter/konkreter Punkt $P(X=x) \in [0, 1]$ | NUR für Intervall ($P(X=x) = 0$) |
Wahrscheinlichkeitsfunktion/ Dichtefunktion | Wahrscheinlichkeitsfunktion $f(x): \Omega \rightarrow[0,1], x \in \mathbb{N}_{0}$ $f(x) = P(X=x)$ $\sum_{x \in \Omega} f(x)=1$ | Dichtefunktion $f(x): \mathbf{\Omega} \rightarrow \mathbb{R}^{+}$ $f$ ist integrierbar $f(x) \geq 0 \quad \forall x \in \mathbb{R}$ $\displaystyle \int_{-\infty}^{+\infty} f(x) \mathrm{d} x=1$ |
Verteilungsfunktion | $F(x): \boldsymbol{\Omega} \rightarrow[\mathbf{0}, \mathbf{1}], X \in \mathbb{N}_{\mathbf{0}}$ $F(x)= P(X \leq x) = \sum_{x_{i} \leq x} f\left(x_{i}\right)$ | $F(x): \Omega \rightarrow[0,1], x \in \mathbb{R}$ $F(x)=\int f(x) \mathrm{d} x, \quad f(x)=\frac{F(x)}{\mathrm{d} x}$ |
wobei $\delta(\cdot)$ die Delta-Distribution ist. Damit gilt sowohl für kontinuierliche als auch für diskrete Zufallsvariablen der Zusammenhang
$$ \frac{d}{d_x} F_{\boldsymbol{x}}(x) = f_{\boldsymbol{x}}(x). $$Kenntwerte von Zufallsvariablen
Erwartungswert
Erwartungswert (auch Mittelwert) : der Durchschnitt, wenn ein Versuch unendlich oft durchgeführt wird
$$ E_{f_X}\{X\} = \hat{X} = \mu_{X} = \int_{-\infty}^{\infty} x f_{X}(x) d x $$- Notation: $\mu$, $E(X)$, $E\[X\]$, $E\\{X\\}$
Rechenregeln
$\mathrm{E}_{f_{X}}\{aX + b\}=a \mathrm{E}_{f_{X}}\{X\}+b$Beweis
Mehr Regeln:
$k$-te Moment
Der Erwartungswert
$$ \mathrm{E}_{f_X}\left\{X^{k}\right\}=\int_{-\infty}^{\infty} x^{k} f_{X}(x) \mathrm{d} x $$ist das $k$-te Moment der Zufallsvariable $X$.
Der Erwartungswert
$$ \mathrm{E}_{f_X}\left\{\left(X-\mathrm{E}\{X\}\right)^{k}\right\}=\int_{-\infty}^{\infty}\left(x-\mu_{X}\right)^{k} f_{X}(x) \mathrm{d} x $$ist das $k$-te zentrale Moment der Zufallsvariable $X$.
Varianz
Varianz := die erwartete quadratische Abweichung vom Erwartungswert
$$ E_{f_X}\{(X - \mu_X)^2\} = \operatorname{Var}(X) = \sigma_X^2 $$das zweite zentrale Moment
Je größer die Varianz, desto weiter streuen die Werte um $E(X)$
Notationen: $\sigma^2$, $\operatorname{Var}(X)$, $\operatorname{Var}\[X\]$
Rechenregeln
$\operatorname{Var}_{f_X}\{aX+b\} = a^2 \operatorname{Var}_{f_X}\{X\}$Beweis
Beweis
Mehr Regeln:
Beweis für Regel 10
Beweis für Regel 11
Beweis für Regel 13
Beweis für Regel 14
Standardabweichung
Standardabweichung: Streumaß, das die selbe Einheit wie $X$ hat
$$ \sigma=\sqrt{\operatorname{Var}(X)} $$Groß $\sigma$ $\rightarrow$ große Streuung
Zufalls- variable | Diskret | Stetig |
---|---|---|
Erwartungswert ($\mu$, $E(x)$) | $\sum_{i \in \Omega} x_{i} \cdot p_{i}$ | $\int_{-\infty}^{+\infty} x \cdot f(x) \mathrm{d} x$ |
Varianz ($\sigma^2$, $Var(x)$) | $\sum_{i \in \Omega}\left(x_{i}-\mu\right)^{2} \cdot p_{i}$ | $\int_{-\infty}^{+\infty}(x-\mu)^{2} \cdot f(x) \mathrm{d} x$ |
Standardabweichung ($\sigma$) | $\sqrt{Var(x)}$ | $\sqrt{Var(x)}$ |
Normalverteilte Zufallsvariable
Ein normalverteilte Zufallsvariable $X$ hat die Dichte
$$ f_{X}(x)=\mathcal{N}\left(x-\mu, \sigma^{2}\right)=\frac{1}{\sqrt{2 \pi} \sigma} e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^{2}} $$Ihr $k$-tes zentrales Moment ist allgemein
$$ \mathrm{E}_{f_{X}}\left\{(X-\mu)^{k}\right\}=\left\{\begin{array}{ll} 1 \cdot 3 \cdot 5 \cdots(k-1) \sigma^{k} & \text { falls } k \text { gerade } \\ 0 & \text { falls } k \text { ungerade } \end{array}\right. $$Die Normalverteilung ist also vollständig durch $\mu$ und $\sigma$ charakterisiert.
Standardisierte Zufallsvariable
Eine Zufallsvariable $X$ mit dem Erwartungswert $\mu_X = E_{f_X}\{X\}$ und der Varianz $\sigma_X^2$ wird durch
$$ Y = \frac{X - \mu_X}{\sigma_X} $$in eine standardisierte Zufallsvariable $Y$, die den Erwartungswert 0 und die Varianz 1 besitzt, transformiert.
Modalwert, Quantil, Median
Ein Wert, für den die Dichtefunktion $f_X(x)$ ein lokales Maximum annimmt, heißt Modalwert der stetigen Zufallsvariablen $X$.
Ein Wert $x_p$, der den Ungleichungen
$$ P(X < x_p) \leq p, \quad P(X > x_p) \leq 1 - p \quad (0 < p < 1) $$genügt, heißt $p$-tes Quantil.
- Für eine stetige Zufallsvariable X ist ein $p$-tes Quantil $x_p$ gegeben durch $F_X(x_p) = p$
- Ein Quantil der Ordnung $p=\frac{1}{2}$ heißt Median der Zufallsvariable $X$
- Für normalverteilte Zufallsvariablen fallen Erwartungswert, Modalwert und Median zusammen.
Reference
Wahrscheinlichkeits-, Dichte- und Verteilungsfunktion diskreter und stetiger Zufallsvariablen
Erwartungswert
Kenngrößen (Momente) von Zufallsvariablen I: Erwartungswert, Varianz, Standardabweichung