Allgemeine Fragen
Vorlesung in eigenen Worten zusammenfassen
Die SI Vorlesung vermittelt die fundamentalen und formalen Grundlagen der Zustandsschätzung rund um Prädiktion und Filterung.
Vier behandelten Typen von Systemen
erläutern
- Nennen
- Zusammenhänge
- Unterschiede
- Limitierungen
- Komplexität einer Implementierung der zugehörigen Schätzer
4 Type von Systeme
- Wertediskrete Systeme
- Wertekontinuierliche lineare Systeme
- Wertekontinuierliche und schwach nichtlineare Systeme
- Allgemeine Systeme
Wann kann man mit 1D-Messungen auch auf einen 3D-Zustand schließen? Wie sehen dann die Unsicherheits-Ellipsen über der Zeit aus?
Definition
Induzierte Nichtlinearität
Bedingte Unabhängigkeit
Zwei Variable $A, B$ sind bedingt unabhängig, gegeben $C$ $\Leftrightarrow$
$$ P(A, B | C) = P(A | C) P(B | C) $$Damit äquivalent sind die Formulierungen: $$ P(A | B,C) = P(A | C) \qquad P(B | A,C) = P(B | C) $$
Zustand
(Script P19)
The state of a dynamic system is defined as the smallest set of variables, the so called state variables, that completely determine the behavior of the system for $t \geq t_0$ given their values at $t_0$ together with the input function for $t \geq t_0$.
- When modeling a system, the choice of state variables is not unique.
- State variables do not need be physically existent. They also do not need to be measurable.
Der Zustand eines dynamischen Systems ist definiert als die kleinste Menge von Variablen, den so genannten Zustandsvariablen, die das Verhalten des Systems für $t \geq t_0$ vollständig bestimmen/beschreiben, wenn man ihre Werte bei $t_0$ zusammen mit der Eingangsfunktion für $t \geq t_0$ betrachtet.
Zustandsschätzung
Rekonstruktion des internen Zustands aus Messungen und Eingängen
Komplexität einer Rekursion
Dichtefunktion, Likelihood
Verteilungsfunktion oder kumulative Wahrscheinlichkeitsdichte $F_{\boldsymbol{x}}(x)$ der Zufallsvariablen $\boldsymbol{x}$
$$ F_{\boldsymbol{x}}: \mathbb{R} \rightarrow[0,1] \qquad F_{\boldsymbol{x}}(x):=\mathrm{P}(\boldsymbol{x} \leq x) $$Eigenschaften von $F_{\boldsymbol{x}}(x)$
- $\lim _{x \rightarrow-\infty} F_{\boldsymbol{x}}(x)=0$
- $\lim _{x \rightarrow\infty} F_{\boldsymbol{x}}(x)=1$
- monoton steigend und rechtsseitig stetig.
Bei stetiger Zufallsvariable:
$$ F_{\boldsymbol{x}}(x)=\int_{-\infty}^{x} f_{\boldsymbol{x}}(u) \mathrm{d} u $$$f_{\boldsymbol{x}}(x)$ heißt Dichte von $x$.
“Dichte” einer diskreten Zufallsvariable:
$$ f_{\boldsymbol{x}}(x)=\sum_{n=1}^{\infty} \mathrm{P}\left(\boldsymbol{x}=x_{n}\right) \delta\left(x-x_{n}\right)=\sum_{n=1}^{\infty} p_{n} \delta\left(x-x_{n}\right) $$Zufallsvariable
Eine Zufallsvariable ist eine numerische Beschreibung des Ergebnisses eines Zufallsexperiments. Es handelt sich um eine Funktion, die ein Ergebnis $\omega$ aus einem Ergebnisraum $\Omega$ in den Raum $\mathbb{R}$ der reellen Zahlen abbildet
$$ \boldsymbol{x}=\boldsymbol{x}(\omega): \Omega \rightarrow \mathbb{R} $$Zwei Typen
- Diskret: Ergebnisse sind endlich oder höchstens abzählbar unendlich
- Kontinuierlich: Ereignis- und Wertemenge ist überabzählbaren.
Momente
Erwartungswert (Mittelwert, 1-te Moment) der Zufallsvariablen $\boldsymbol{x}$:
$$ \mathrm{E}_{f_{\boldsymbol{x}}}\{\boldsymbol{x}\}=\hat{\boldsymbol{x}}=\mu_{\boldsymbol{x}}=\int_{-\infty}^{\infty} x f_{\boldsymbol{x}}(x) \mathrm{d} x $$$k$-te Moment der Zufallsvariablen $\boldsymbol{x}$: $$ \mathrm{E}_{f_{\boldsymbol{x}}}\left\{\boldsymbol{x}^{k}\right\}=\int_{-\infty}^{\infty} x^{k} f_{\boldsymbol{x}}(x) \mathrm{d} x $$
$k$-te zentrale Moment der Zufallsvariablen $\boldsymbol{x}$:
$$ \mathrm{E}_{f_{\boldsymbol{x}}}\left\{\left(\boldsymbol{x}-\mathrm{E}_{f_{\boldsymbol{x}}}\{\boldsymbol{x}\}\right)^{k}\right\}=\int_{-\infty}^{\infty}\left(x-\mu_{\boldsymbol{x}}\right)^{k} f_{\boldsymbol{x}}(x) \mathrm{d} x $$Varianz (2-te zentral Moment) der Zufallsvariablen $\boldsymbol{x}$:
$$ \mathrm{E}_{f_{\boldsymbol{x}}}\left\{\left(\boldsymbol{x}-\mathrm{E}_{f_{\boldsymbol{x}}}\{\boldsymbol{x}\}\right)^{2}\right\}=\int_{-\infty}^{\infty}\left(x-\mu_{\boldsymbol{x}}\right)^{2} f_{\boldsymbol{x}}(x) \mathrm{d} x $$- $\sigma_{\boldsymbol{x}}$: Standardabweichung der Zufallsvariablen $\boldsymbol{x}$
2-dim. Zufallsvariable
$\underline{X}$ sei eine zweidimensionale Zufallsvariable mit der Dichte $f(\underline{X})=f_{\underline{X}}\left(x_{1}, x_{2}\right)$.
Randdichte
$$ \begin{array}{l} f_{X_{1}}\left(x_{1}\right)=\int_{-\infty}^{\infty} f_{\underline{X}}\left(x_{1}, x_{2}\right) \mathrm{d} x_{2} \\ f_{X_{2}}\left(x_{2}\right)=\int_{-\infty}^{\infty} f_{\underline{X}}\left(x_{1}, x_{2}\right) \mathrm{d} x_{1} \end{array} $$Bedingte Dichte
Bedingte Dichte von $x_1$
$$ f_{X_{1}}\left(x_{1} \mid X_{2}=x_{2}\right)=\frac{f_{\underline{X}}\left(x_{1}, x_{2}\right)}{f_{X_{2}}\left(x_{2}\right)} $$Bedingte Dichte von $x_2$
$$ f_{X_{2}}\left(x_{2} \mid X_{1}=x_{1}\right)=\frac{f_{\underline{X}}\left(x_{1}, x_{2}\right)}{f_{X_{1}}\left(x_{1}\right)} $$Unabhängigkeit und Unkorreliertheit von Zufallsvariablen
$X, Y$ sind unabhängig $\Leftrightarrow$
$$ f_{X, Y}(x, y)=f_{X}(x) \cdot f_{Y}(y) $$Damit gilt auch
$$ f_{X}(x \mid Y=y)=f_{X}(x) $$Die Kovarianz $\sigma_{X, Y}=\operatorname{Cov}_{\boldsymbol{f}_{X, Y}}\{X, Y\}$ von $X$ und $Y$:
$$ \sigma_{X, Y}=\operatorname{Cov}_{f_{X, Y}}\{X, Y\}=\mathrm{E}\{(X-\mathrm{E}\{X\}) \cdot(Y-\mathrm{E}\{Y\})\}=\mathrm{E}\left\{\left(X-\mu_{x}\right) \cdot\left(Y-\mu_{y}\right)\right\} $$Der Korrelationskoeffizient von $X$ und $Y$:
$$ \rho_{X, Y}=\frac{\sigma_{X, Y}}{\sigma_{X} \cdot \sigma_{Y}} \in [-1, 1] $$- $\left|\rho_{X, Y}\right|=1$: $X$ und $Y$ sind maximal ähnlich
- $\left|\rho_{X, Y}\right|=0$: $X$ und $Y$ sind komplett unähnlich (i.e., $X$ und $Y$ sind unkorreliert)
Unabhängigkeit und Unkorreliertheit:
$$ \text{Unabhängigkeit} \underset{\text{+ Normalverteilung}}{\rightleftharpoons} \text{Unkorreliertheit} $$Erwartungswert
- Üb 1, A7
- Üb 2, A3.4
Der Erwartungswert kann interpretiert werden als Mittelwert aller möglichen Werte $x_n$, die eine (diskrete) Zufallsvariable $\boldsymbol{x}$ annehmen kann. Dabei werden die Werte entsprechend ihrer Auftretenswahrscheinlichkeit $p_n$ gewichtet.
$$ \mathrm{E}\{\boldsymbol{x}\}=\sum_{n=1}^{N} x_{n} p_{n} $$Kontinuierlicher Fall:
$$ \mathrm{E}_{f_\boldsymbol{x}}\{\boldsymbol{x}\} = \int_{-\infty}^{\infty}x f_\boldsymbol{x}(x) dx $$Erwartungswert für Funktionen einer Zufallsvariable:
$$ \mathrm{E}_{f_{\boldsymbol{x}}}\{g(\boldsymbol{x})\}=\int_{-\infty}^{\infty} g(x) f_{\boldsymbol{x}}(x) \mathrm{d} x $$Recehenregeln:
- $\mathrm{E}_{f_{X}}\{a X+b\}=a \mathrm{E}_{f_{X}}\{X\}+b$
- $a$ ist eine Konstante: $E(a)=a$
- $E(X \pm Y)=E(X) \pm E(Y)$
- $E(XY) = E(x) E(Y)$ , falls $x, Y$ unabhängig
Varianz
$$ E_{f_X}\{(X - \mu_X)^2\} = \operatorname{Var}(X) = \sigma_X^2 $$Rechenregeln:
- $\operatorname{Var}_{f_X}\{aX+b\} = a^2 \operatorname{Var}_{f_X}\{X\}$
- $\operatorname{Var}_{f_{X}}\{X\}=\mathrm{E}_{f_{X}}\left\{X^{2}\right\}-\left(\mathrm{E}_{f_{X}}\{X\}\right)^{2}$
- $a$ is eine Konstante
- $\operatorname{Var}_{f_X}\{a\} = 0$
- $\operatorname{Var}_{f_X}\{a \pm X\} = \operatorname{Var}_{f_X}\{X\}$
- $\operatorname{Var}\{X, Y\} = E\{XY\} - \mu_X \mu_Y $
Kovarianzmatrix
- Üb 2, A2.3
- Üb 4, A5
Positiv definit, positiv semidefinit
Eine beliebige (ggf. symmetrische bzw. hermitesche) $n \times n$-Matrix $A$ ist
positiv definit, falls
$$ x^T A x > 0 $$positiv semidefinit, falls
$$ x^T A x \geq 0 $$
Weißes Rauschen
Uncertainties taken at different time steps are also independent
System-Eigenschaften: dynamisch, statisch, linear, zeitinvariant
Statisch: Der aktuellen Ausgang $y_k$ ist abhängig von dem aktuellen Eingang $u_k$.
Dynamisch: Der aktuellen Ausgang $y_k$ ist abhängig von
- dem aktuellen Eingang $u_k$
- dem aktuellen Zustand $x_k$
Bei wertkontinuierlicher linearer Systeme:
Linear
$$ \mathcal{S}\left\{\sum_{i=1}^{N} c_{i} y_{\mathrm{e} i, n}\right\}=\sum_{i=1}^{N} c_{i} \mathcal{S}\left\{y_{\mathrm{e} i, n}\right\} $$(also höhste Exponent $\leq 1$)
Zeitinvariant
Das System antwortet auf ein zeitlich verschobenes Eingangssignal $y_{\mathrm{e}, n-n_{0}}$ mit dem entsprechend zeitlichverschobenen Ausgangssignal $y_{\mathrm{a}, n-n_{0}}$
$$ y_{\mathrm{a}, n}=\mathcal{S}\left\{y_{\mathrm{e}, n}\right\} \quad \Longrightarrow \quad y_{\mathrm{a}, n-n_{0}}=\mathcal{S}\left\{y_{\mathrm{e}, n-n_{0}}\right\}. $$(also unabhängig von dem Zeitindex $k$)
Kausalität
Ein zeitdiskretes System S heißt kausal, wenn die Antwort NUR von gegenwärtigen oder vergangenen, NICHT jedoch von zukünftigen Werten des Eingangssignals abhängt.
Dirac Funktion
Definition:
$$ \begin{aligned} \delta(x)&=0, \quad x \neq 0 \\ \int_{a}^b \delta(x) dx &= 1 \quad a < x < b \end{aligned} $$Rechenregeln
Verschiebung
$$ \int_{a}^{b} f(x) \delta\left(x-x_{0}\right) \mathrm{d} x=f\left(x_{0}\right) $$Symmetrie
$$ \delta(x) = \delta(-x) $$Skalierung
$$ \int_{a}^{b} f(x) \delta(|k| x) \mathrm{d} x=\frac{1}{|k|} f(0) $$Hintereinanderausführung
$$ \int_{-\infty}^{\infty} f(x) \delta(g(x)) \mathrm{d} x=\sum_{i=1}^{n} \frac{f\left(x_{i}\right)}{\left|g^{\prime}\left(x_{i}\right)\right|} $$wobei $g(x_i) = 0$ und $g^\prime(x_i) \neq 0$.
Verkettung auflösen (super wichtig!!!)
$$ \delta(g(x)) = \sum_i \frac{1}{g^\prime(x_i)} \delta(x - x_i) $$wobei $g(x_i) = 0$ und $g^\prime(x_i) \neq 0$.