Lecture Notes

Nichtlineare Schätzung

Approximation durch Linearisierung Idea Linearisierung der nichtlinear Funktion (Normal/Linear) Kalman Filter anwenden Systemmodell $$ \underline{x}_{k+1}=\underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right) \tag{Systemmodell} $$ Linearisierung der rechten Seite von $\text{(Systemmodell)}$ mit Taylor-Entwicklung von $\underline{\overline{x}}_k, \underline{\overline{u}}_k$ :

2022-06-30

Statische und Dynamische Systeme

Statische Systeme Ein-/Ausgang: Zufallsvektoren $\underline{u}_k$ und $\underline{y}_k$ ($k \in \mathbb{N}_0$ ist der Zeitschritt) $\underline{u}_k \in \mathbb{R}^P$ und $\underline{y}_k \in \mathbb{R}^M$ sind wertekontinuierlich Abbildung von $\underline{u}_k$ und $\underline{y}_k$ durch nichtlineare Abbildung

2022-06-30

Wertekontinuierliche Nichtlineare Systeme

2022-06-30

HMM und Wonham Filter

Das Hidden Markov Model (HMM) ist ein stochastisches Modell, in dem ein System durch eine Markowkette mit unbeobachteten Zuständen modelliert wird. Die Modellierung als Markowkette bedeutet, dass das System auf zufällige Weise von einem Zustand in einen anderen übergeht, wobei die Übergangswahrscheinlichkeiten nur jeweils vom aktuellen Zustand abhängen, aber nicht von den davor eingenommenen Zuständen.

2022-06-29

Differenzierensregeln fĂĽr Matrizen

FĂĽr eine Matrix $\mathbf{C}$ gilt $$ \frac{\partial}{\partial \mathbf{C}}\left(\underline{a}^{\top} \cdot \mathbf{C} \cdot \underline{b}\right)=\underline{a} \cdot \underline{b}^{\top} $$ Beispiel $$ Q=\underbrace{\left[\begin{array}{ll} a_{1} & a_{2} \end{array}\right]}_{\boldsymbol{a}^\top}\left[\begin{array}{ll} c_{11} & c_{12} \\ c_{21} & c_{22} \end{array}\right]\underbrace{\left[\begin{array}{l} b_{1} \\ b_{2} \end{array}\right]}_{\boldsymbol{b}}=a_{1} b_{1} \cdot c_{11}+a_{2} b_{1} c_{21}+a_{1} b_{2} c_{12}+a_{2} b_{2} c_{22} = \boldsymbol{a} \cdot \boldsymbol{b}^\top $$ $$ \frac{\partial Q}{\partial \mathbf{C}}=\left[\begin{array}{ll} \frac{\partial Q}{\partial C_{12}} & \frac{\partial Q}{\partial C_{12}} \\ \frac{\partial Q}{\partial C_{21}} & \frac{\partial Q}{\partial C_{22}} \end{array}\right]=\left[\begin{array}{ll} a_{1} b_{1} & a_{1} b_{2} \\ a_{2} b_{1} & a_{2} b_{2} \end{array}\right]=\left[\begin{array}{l} a_{1} \\ a_{2} \end{array}\right]\left[\begin{array}{ll} b_{1} & b_{2} \end{array}\right] $$ FĂĽr eine symmetrische Matrix $\mathbf{C}$:

2022-06-17

Zustandsschätzung: Kalman Filter

Die ausführliche Zusammenfassung für Kalman Filter siehe hier. Prädiktion Wir möchte ein Schritt Prädiktion für Zustand machen, also am Zeitschritt $k$ ($k > m$, $m:= \text{\#Messungen}$) die Prädiktion für den Zustand $\underline{x}_{k+1}$ zu machen

2022-06-16

Statische und Dynamische Systeme

Linearität Gegeben ein System $S$ $$ \underline{x}_k \rightarrow \underline{y}_k \qquad k \in \mathbb{N}_0 $$ Zwei Bedingungen der Linearität Skalierung $$ \underline{x}_k \rightarrow \underline{y}_k \Rightarrow A \cdot \underline{x}_k \rightarrow A \cdot \underline{y}_k $$ Superposition

2022-06-16

Wertekontinuierliche lineare Systeme

2022-06-15

Zustandsschätzung

Vorbemerkungen Bayessches Gesetz und erweiterte Konditionierung $$ \begin{array}{l} &P(a \mid b) \cdot P(b)=P(a, b)=P(b \mid a) \cdot P(a) \\\\ \Rightarrow &P(b \mid a)=\frac{P(a | b) \cdot P(b)}{P(a)} \end{array} $$ Erweiterte Konditionierung:

2022-06-08

Zweidimensionale Zufallsvariable

Verteilungsfunktion und Dichte Eine vektorwertige Funktion $$ \underline{X}=\underline{X}(\omega): \Omega \rightarrow \mathbb{R}^{2} $$ die jedem Ergebnis $\omega \in \Omega$ einen Vektor $\underline{x}=\left[\begin{array}{l}x_{1} \\ x_{2}\end{array}\right]$ zuordnet, heiĂźt mehrdimensionale Zufallsvariable, wenn das Urbild eines jeden Intervalls $I_{\underline{a}}=\left(-\infty, a_{1}\right] \times\left(-\infty, a_{2}\right] \subset \mathbb{R}^{2}$ ein Ereignis ist

2022-06-05