Math

Gaußverteilung

Skalarer Fall (1D) $$ f(x)=\frac{1}{\sqrt{2 \pi} \sigma} \exp \left\{-\frac{1}{2} \frac{(x-\hat{x})^{2}}{\sigma^{2}}\right\} $$ Erwartungswert $$ E_{f}\{x\}=\hat{x} $$ Varianz $$ E_{f}\left\{(x-\hat{x})^{2}\right\}=\sigma^{2} $$ Given the parameters $\mu$ and $\sigma$ of a Gaussian density, mean and variance are already given.

2022-07-03

HMM und Wonham Filter

Das Hidden Markov Model (HMM) ist ein stochastisches Modell, in dem ein System durch eine Markowkette mit unbeobachteten Zuständen modelliert wird. Die Modellierung als Markowkette bedeutet, dass das System auf zufällige Weise von einem Zustand in einen anderen übergeht, wobei die Übergangswahrscheinlichkeiten nur jeweils vom aktuellen Zustand abhängen, aber nicht von den davor eingenommenen Zuständen.

2022-06-29

Differenzierensregeln für Matrizen

Für eine Matrix $\mathbf{C}$ gilt $$ \frac{\partial}{\partial \mathbf{C}}\left(\underline{a}^{\top} \cdot \mathbf{C} \cdot \underline{b}\right)=\underline{a} \cdot \underline{b}^{\top} $$ Beispiel $$ Q=\underbrace{\left[\begin{array}{ll} a_{1} & a_{2} \end{array}\right]}_{\boldsymbol{a}^\top}\left[\begin{array}{ll} c_{11} & c_{12} \\ c_{21} & c_{22} \end{array}\right]\underbrace{\left[\begin{array}{l} b_{1} \\ b_{2} \end{array}\right]}_{\boldsymbol{b}}=a_{1} b_{1} \cdot c_{11}+a_{2} b_{1} c_{21}+a_{1} b_{2} c_{12}+a_{2} b_{2} c_{22} = \boldsymbol{a} \cdot \boldsymbol{b}^\top $$ $$ \frac{\partial Q}{\partial \mathbf{C}}=\left[\begin{array}{ll} \frac{\partial Q}{\partial C_{12}} & \frac{\partial Q}{\partial C_{12}} \\ \frac{\partial Q}{\partial C_{21}} & \frac{\partial Q}{\partial C_{22}} \end{array}\right]=\left[\begin{array}{ll} a_{1} b_{1} & a_{1} b_{2} \\ a_{2} b_{1} & a_{2} b_{2} \end{array}\right]=\left[\begin{array}{l} a_{1} \\ a_{2} \end{array}\right]\left[\begin{array}{ll} b_{1} & b_{2} \end{array}\right] $$ Für eine symmetrische Matrix $\mathbf{C}$:

2022-06-17

Zweidimensionale Zufallsvariable

Verteilungsfunktion und Dichte Eine vektorwertige Funktion $$ \underline{X}=\underline{X}(\omega): \Omega \rightarrow \mathbb{R}^{2} $$ die jedem Ergebnis $\omega \in \Omega$ einen Vektor $\underline{x}=\left[\begin{array}{l}x_{1} \\ x_{2}\end{array}\right]$ zuordnet, heißt mehrdimensionale Zufallsvariable, wenn das Urbild eines jeden Intervalls $I_{\underline{a}}=\left(-\infty, a_{1}\right] \times\left(-\infty, a_{2}\right] \subset \mathbb{R}^{2}$ ein Ereignis ist

2022-06-05

Zufallsvariable

Zufallsvariablen Zufallsvariablen werden auf den SI-Übungsblättern durch kleine, fettgedruckte Buchstaben gekennzeichnet, z.B. $X$. Diese Notation wird nicht auf den handschriftlichen Mitschrieben umgesetzt, sodass Zufallsvariablen und „normale“ Variablen meistens aus dem Kontext heraus unterschieden werden müssen.

2022-06-04

(Diracsche) Delta-Distribution / Delta-Funktion

Definition Die Delta-Distribution (aka. Dirac-Funktion, Dirac-Maß, Impulsfunktion) ist eine spezielle irreguläre Distribution mit kompaktem Träger. $$ \begin{array}{c} \delta(x)=0, \quad x \neq 0 \\\\ \displaystyle \int_{a}^{b} \delta(x) \mathrm{d} x=1, \quad a<0

2022-06-04

Ereignis und Wahrscheinlichkeit

Ereignisse Ein endlicher Ergebnisraum eines Zufallsexperimentes ist eine nichtleere Menge $$ \Omega=\left\{\omega_{1}, \omega_{2}, \ldots, \omega_{N}\right\}. $$ I.e., $\Omega$ enthält alle mögliche Ergebnisse. Die Elemente $\omega_{n} \in \Omega$ heißen Ergebnisse, die möglichen Ausgänge eines Zufallsexperiments.

2022-06-04

Math

Tutorials Statistik: Zusammenfassung von Statistik Statistik Tutorials von Studyflix 👍 Youtube channel “Math by Daniel Jung” (klar erklärt mit Beispiele) 👍

2022-06-04

Math Basics

Linear Algebra Vectors Vector: multi-dimensional quantity Each dimension contains different information (e.g.: Age, Weight, Height…) represented as bold symbols A vector $\boldsymbol{x}$ is always a column vector $$ \boldsymbol{x}=\left[\begin{array}{l} {1} \\\\ {2} \\\\ {4} \end{array}\right] $$ A transposed vector $\boldsymbol{x}^T$ is a row vector $$ \boldsymbol{x}^{T}=\left[\begin{array}{lll} {1} & {2} & {4} \end{array}\right] $$ Vector Operations Multiplication by scalars $$ 2\left[\begin{array}{l} {1} \\\\ {2} \end{array}\right]=\left[\begin{array}{l} {2} \\\\ {4} \end{array}\right] $$ Addtition of vectors $$ \left[\begin{array}{l}{1} \\\\ {2} \end{array}\right]+\left[\begin{array}{l}{3} \\\\ {1}\end{array}\right]=\left[\begin{array}{l}{4} \\\\ {3} \end{array}\right] $$ Scalar (Inner) products: Sum the element-wise products $$ \boldsymbol{v}=\left[\begin{array}{c}{1} \\\\ {2} \\\\ {4}\end{array}\right], \quad \boldsymbol{w}=\left[\begin{array}{l}{2} \\\\ {4} \\\\ {8}\end{array}\right] $$ $$ \langle v, w\rangle= 1 \cdot 2+2 \cdot 4+4 \cdot 8=42 $$ Length of a vector: Square root of the inner product with itself $$ \|\boldsymbol{v}\|=\langle\boldsymbol{v}, \boldsymbol{v}\rangle^{\frac{1}{2}}=\left(1^{2}+2^{2}+4^{2}\right)^{\frac{1}{2}}=\sqrt{21} $$ Matrices Matrix: rectangular array of numbers arranged in rows and columns

2020-08-17