Approximation durch Linearisierung Idea Linearisierung der nichtlinear Funktion (Normal/Linear) Kalman Filter anwenden Systemmodell $$ \underline{x}_{k+1}=\underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right) \tag{Systemmodell} $$ Linearisierung der rechten Seite von $\text{(Systemmodell)}$ mit Taylor-Entwicklung von $\underline{\overline{x}}_k, \underline{\overline{u}}_k$ :
2022-06-30
Statische Systeme Ein-/Ausgang: Zufallsvektoren $\underline{u}_k$ und $\underline{y}_k$ ($k \in \mathbb{N}_0$ ist der Zeitschritt) $\underline{u}_k \in \mathbb{R}^P$ und $\underline{y}_k \in \mathbb{R}^M$ sind wertekontinuierlich Abbildung von $\underline{u}_k$ und $\underline{y}_k$ durch nichtlineare Abbildung
2022-06-30
2022-06-30
Das Hidden Markov Model (HMM) ist ein stochastisches Modell, in dem ein System durch eine Markowkette mit unbeobachteten Zuständen modelliert wird. Die Modellierung als Markowkette bedeutet, dass das System auf zufällige Weise von einem Zustand in einen anderen übergeht, wobei die Übergangswahrscheinlichkeiten nur jeweils vom aktuellen Zustand abhängen, aber nicht von den davor eingenommenen Zuständen.
2022-06-29
FĂĽr eine Matrix $\mathbf{C}$ gilt $$ \frac{\partial}{\partial \mathbf{C}}\left(\underline{a}^{\top} \cdot \mathbf{C} \cdot \underline{b}\right)=\underline{a} \cdot \underline{b}^{\top} $$ Beispiel $$ Q=\underbrace{\left[\begin{array}{ll} a_{1} & a_{2} \end{array}\right]}_{\boldsymbol{a}^\top}\left[\begin{array}{ll} c_{11} & c_{12} \\ c_{21} & c_{22} \end{array}\right]\underbrace{\left[\begin{array}{l} b_{1} \\ b_{2} \end{array}\right]}_{\boldsymbol{b}}=a_{1} b_{1} \cdot c_{11}+a_{2} b_{1} c_{21}+a_{1} b_{2} c_{12}+a_{2} b_{2} c_{22} = \boldsymbol{a} \cdot \boldsymbol{b}^\top $$ $$ \frac{\partial Q}{\partial \mathbf{C}}=\left[\begin{array}{ll} \frac{\partial Q}{\partial C_{12}} & \frac{\partial Q}{\partial C_{12}} \\ \frac{\partial Q}{\partial C_{21}} & \frac{\partial Q}{\partial C_{22}} \end{array}\right]=\left[\begin{array}{ll} a_{1} b_{1} & a_{1} b_{2} \\ a_{2} b_{1} & a_{2} b_{2} \end{array}\right]=\left[\begin{array}{l} a_{1} \\ a_{2} \end{array}\right]\left[\begin{array}{ll} b_{1} & b_{2} \end{array}\right] $$ FĂĽr eine symmetrische Matrix $\mathbf{C}$:
2022-06-17
Die ausführliche Zusammenfassung für Kalman Filter siehe hier. Prädiktion Wir möchte ein Schritt Prädiktion für Zustand machen, also am Zeitschritt $k$ ($k > m$, $m:= \text{\#Messungen}$) die Prädiktion für den Zustand $\underline{x}_{k+1}$ zu machen
2022-06-16
Linearität Gegeben ein System $S$ $$ \underline{x}_k \rightarrow \underline{y}_k \qquad k \in \mathbb{N}_0 $$ Zwei Bedingungen der Linearität Skalierung $$ \underline{x}_k \rightarrow \underline{y}_k \Rightarrow A \cdot \underline{x}_k \rightarrow A \cdot \underline{y}_k $$ Superposition
2022-06-16
2022-06-15
Vorbemerkungen Bayessches Gesetz und erweiterte Konditionierung $$ \begin{array}{l} &P(a \mid b) \cdot P(b)=P(a, b)=P(b \mid a) \cdot P(a) \\\\ \Rightarrow &P(b \mid a)=\frac{P(a | b) \cdot P(b)}{P(a)} \end{array} $$ Erweiterte Konditionierung:
2022-06-08
Verteilungsfunktion und Dichte Eine vektorwertige Funktion $$ \underline{X}=\underline{X}(\omega): \Omega \rightarrow \mathbb{R}^{2} $$ die jedem Ergebnis $\omega \in \Omega$ einen Vektor $\underline{x}=\left[\begin{array}{l}x_{1} \\ x_{2}\end{array}\right]$ zuordnet, heiĂźt mehrdimensionale Zufallsvariable, wenn das Urbild eines jeden Intervalls $I_{\underline{a}}=\left(-\infty, a_{1}\right] \times\left(-\infty, a_{2}\right] \subset \mathbb{R}^{2}$ ein Ereignis ist
2022-06-05