Allgemeine Fragen

Vorlesung in eigenen Worten zusammenfassen

Die SI Vorlesung vermittelt die fundamentalen und formalen Grundlagen der Zustandsschätzung rund um Prädiktion und Filterung.

Vier behandelten Typen von Systemen

erläutern

  • Nennen
  • Zusammenhänge
  • Unterschiede
  • Limitierungen
  • Komplexität einer Implementierung der zugehörigen Schätzer

4 Type von Systeme

  • Wertediskrete Systeme
  • Wertekontinuierliche lineare Systeme
  • Wertekontinuierliche und schwach nichtlineare Systeme
  • Allgemeine Systeme

Wann kann man mit 1D-Messungen auch auf einen 3D-Zustand schließen? Wie sehen dann die Unsicherheits-Ellipsen über der Zeit aus?

Definition

Induzierte Nichtlinearität

Bedingte Unabhängigkeit

Zwei Variable A,BA, B sind bedingt unabhängig, gegeben CC \Leftrightarrow

P(A,BC)=P(AC)P(BC) P(A, B | C) = P(A | C) P(B | C)

Damit äquivalent sind die Formulierungen: P(AB,C)=P(AC)P(BA,C)=P(BC) P(A | B,C) = P(A | C) \qquad P(B | A,C) = P(B | C)

Zustand

(Script P19)

The state of a dynamic system is defined as the smallest set of variables, the so called state variables, that completely determine the behavior of the system for tt0t \geq t_0 given their values at t0t_0 together with the input function for tt0t \geq t_0.

  • When modeling a system, the choice of state variables is not unique.
  • State variables do not need be physically existent. They also do not need to be measurable.

Der Zustand eines dynamischen Systems ist definiert als die kleinste Menge von Variablen, den so genannten Zustandsvariablen, die das Verhalten des Systems für tt0t \geq t_0 vollständig bestimmen/beschreiben, wenn man ihre Werte bei t0t_0 zusammen mit der Eingangsfunktion für tt0t \geq t_0 betrachtet.

Zustandsschätzung

Rekonstruktion des internen Zustands aus Messungen und Eingängen

Komplexität einer Rekursion

Dichtefunktion, Likelihood

Verteilungsfunktion oder kumulative Wahrscheinlichkeitsdichte Fx(x)F_{\boldsymbol{x}}(x) der Zufallsvariablen x\boldsymbol{x}

Fx:R[0,1]Fx(x):=P(xx) F_{\boldsymbol{x}}: \mathbb{R} \rightarrow[0,1] \qquad F_{\boldsymbol{x}}(x):=\mathrm{P}(\boldsymbol{x} \leq x)

Eigenschaften von Fx(x)F_{\boldsymbol{x}}(x)

  • limxFx(x)=0\lim _{x \rightarrow-\infty} F_{\boldsymbol{x}}(x)=0
  • limxFx(x)=1\lim _{x \rightarrow\infty} F_{\boldsymbol{x}}(x)=1
  • monoton steigend und rechtsseitig stetig.

Bei stetiger Zufallsvariable:

Fx(x)=xfx(u)du F_{\boldsymbol{x}}(x)=\int_{-\infty}^{x} f_{\boldsymbol{x}}(u) \mathrm{d} u

fx(x)f_{\boldsymbol{x}}(x) heißt Dichte von xx.

“Dichte” einer diskreten Zufallsvariable:

fx(x)=n=1P(x=xn)δ(xxn)=n=1pnδ(xxn) f_{\boldsymbol{x}}(x)=\sum_{n=1}^{\infty} \mathrm{P}\left(\boldsymbol{x}=x_{n}\right) \delta\left(x-x_{n}\right)=\sum_{n=1}^{\infty} p_{n} \delta\left(x-x_{n}\right)

Zufallsvariable

Üb 1, A4, A5

Eine Zufallsvariable ist eine numerische Beschreibung des Ergebnisses eines Zufallsexperiments. Es handelt sich um eine Funktion, die ein Ergebnis ω\omega aus einem Ergebnisraum Ω\Omega in den Raum R\mathbb{R} der reellen Zahlen abbildet

x=x(ω):ΩR \boldsymbol{x}=\boldsymbol{x}(\omega): \Omega \rightarrow \mathbb{R}

Zwei Typen

  • Diskret: Ergebnisse sind endlich oder höchstens abzählbar unendlich
  • Kontinuierlich: Ereignis- und Wertemenge ist überabzählbaren.

Momente

Üb 2, A1.1

Erwartungswert (Mittelwert, 1-te Moment) der Zufallsvariablen x\boldsymbol{x}:

Efx{x}=x^=μx=xfx(x)dx \mathrm{E}_{f_{\boldsymbol{x}}}\{\boldsymbol{x}\}=\hat{\boldsymbol{x}}=\mu_{\boldsymbol{x}}=\int_{-\infty}^{\infty} x f_{\boldsymbol{x}}(x) \mathrm{d} x

kk-te Moment der Zufallsvariablen x\boldsymbol{x}: Efx{xk}=xkfx(x)dx \mathrm{E}_{f_{\boldsymbol{x}}}\left\{\boldsymbol{x}^{k}\right\}=\int_{-\infty}^{\infty} x^{k} f_{\boldsymbol{x}}(x) \mathrm{d} x

kk-te zentrale Moment der Zufallsvariablen x\boldsymbol{x}:

Efx{(xEfx{x})k}=(xμx)kfx(x)dx \mathrm{E}_{f_{\boldsymbol{x}}}\left\{\left(\boldsymbol{x}-\mathrm{E}_{f_{\boldsymbol{x}}}\{\boldsymbol{x}\}\right)^{k}\right\}=\int_{-\infty}^{\infty}\left(x-\mu_{\boldsymbol{x}}\right)^{k} f_{\boldsymbol{x}}(x) \mathrm{d} x

Varianz (2-te zentral Moment) der Zufallsvariablen x\boldsymbol{x}:

Efx{(xEfx{x})2}=(xμx)2fx(x)dx \mathrm{E}_{f_{\boldsymbol{x}}}\left\{\left(\boldsymbol{x}-\mathrm{E}_{f_{\boldsymbol{x}}}\{\boldsymbol{x}\}\right)^{2}\right\}=\int_{-\infty}^{\infty}\left(x-\mu_{\boldsymbol{x}}\right)^{2} f_{\boldsymbol{x}}(x) \mathrm{d} x
  • σx\sigma_{\boldsymbol{x}}: Standardabweichung der Zufallsvariablen x\boldsymbol{x}

2-dim. Zufallsvariable

Üb 2, A2.2

X\underline{X} sei eine zweidimensionale Zufallsvariable mit der Dichte f(X)=fX(x1,x2)f(\underline{X})=f_{\underline{X}}\left(x_{1}, x_{2}\right).

Randdichte

fX1(x1)=fX(x1,x2)dx2fX2(x2)=fX(x1,x2)dx1 \begin{array}{l} f_{X_{1}}\left(x_{1}\right)=\int_{-\infty}^{\infty} f_{\underline{X}}\left(x_{1}, x_{2}\right) \mathrm{d} x_{2} \\ f_{X_{2}}\left(x_{2}\right)=\int_{-\infty}^{\infty} f_{\underline{X}}\left(x_{1}, x_{2}\right) \mathrm{d} x_{1} \end{array}

Bedingte Dichte

Bedingte Dichte von x1x_1

fX1(x1X2=x2)=fX(x1,x2)fX2(x2) f_{X_{1}}\left(x_{1} \mid X_{2}=x_{2}\right)=\frac{f_{\underline{X}}\left(x_{1}, x_{2}\right)}{f_{X_{2}}\left(x_{2}\right)}

Bedingte Dichte von x2x_2

fX2(x2X1=x1)=fX(x1,x2)fX1(x1) f_{X_{2}}\left(x_{2} \mid X_{1}=x_{1}\right)=\frac{f_{\underline{X}}\left(x_{1}, x_{2}\right)}{f_{X_{1}}\left(x_{1}\right)}

Unabhängigkeit und Unkorreliertheit von Zufallsvariablen

Üb 2, A2.3

X,YX, Y sind unabhängig \Leftrightarrow

fX,Y(x,y)=fX(x)fY(y) f_{X, Y}(x, y)=f_{X}(x) \cdot f_{Y}(y)

Damit gilt auch

fX(xY=y)=fX(x) f_{X}(x \mid Y=y)=f_{X}(x)

Die Kovarianz σX,Y=CovfX,Y{X,Y}\sigma_{X, Y}=\operatorname{Cov}_{\boldsymbol{f}_{X, Y}}\{X, Y\} von XX und YY:

σX,Y=CovfX,Y{X,Y}=E{(XE{X})(YE{Y})}=E{(Xμx)(Yμy)} \sigma_{X, Y}=\operatorname{Cov}_{f_{X, Y}}\{X, Y\}=\mathrm{E}\{(X-\mathrm{E}\{X\}) \cdot(Y-\mathrm{E}\{Y\})\}=\mathrm{E}\left\{\left(X-\mu_{x}\right) \cdot\left(Y-\mu_{y}\right)\right\}

Der Korrelationskoeffizient von XX und YY:

ρX,Y=σX,YσXσY[1,1] \rho_{X, Y}=\frac{\sigma_{X, Y}}{\sigma_{X} \cdot \sigma_{Y}} \in [-1, 1]
  • ρX,Y=1\left|\rho_{X, Y}\right|=1: XX und YY sind maximal ähnlich
  • ρX,Y=0\left|\rho_{X, Y}\right|=0: XX und YY sind komplett unähnlich (i.e., XX und YY sind unkorreliert)

Unabhängigkeit und Unkorreliertheit:

Unabha¨ngigkeit+ NormalverteilungUnkorreliertheit \text{Unabhängigkeit} \underset{\text{+ Normalverteilung}}{\rightleftharpoons} \text{Unkorreliertheit}

Erwartungswert

  • Üb 1, A7
  • Üb 2, A3.4

Der Erwartungswert kann interpretiert werden als Mittelwert aller möglichen Werte xnx_n, die eine (diskrete) Zufallsvariable x\boldsymbol{x} annehmen kann. Dabei werden die Werte entsprechend ihrer Auftretenswahrscheinlichkeit pnp_n gewichtet.

E{x}=n=1Nxnpn \mathrm{E}\{\boldsymbol{x}\}=\sum_{n=1}^{N} x_{n} p_{n}

Kontinuierlicher Fall:

\mathrm{E}_{f_\boldsymbol{x}}\{\boldsymbol{x}\} = \int_{-\infty}^{\infty}x f_\boldsymbol{x}(x) dx

Erwartungswert für Funktionen einer Zufallsvariable:

Efx{g(x)}=g(x)fx(x)dx \mathrm{E}_{f_{\boldsymbol{x}}}\{g(\boldsymbol{x})\}=\int_{-\infty}^{\infty} g(x) f_{\boldsymbol{x}}(x) \mathrm{d} x

Recehenregeln:

  • EfX{aX+b}=aEfX{X}+b\mathrm{E}_{f_{X}}\{a X+b\}=a \mathrm{E}_{f_{X}}\{X\}+b
  • aa ist eine Konstante: E(a)=aE(a)=a
  • E(X±Y)=E(X)±E(Y)E(X \pm Y)=E(X) \pm E(Y)
  • E(XY)=E(x)E(Y)E(XY) = E(x) E(Y) , falls x,Yx, Y unabhängig

Varianz

EfX{(XμX)2}=Var(X)=σX2 E_{f_X}\{(X - \mu_X)^2\} = \operatorname{Var}(X) = \sigma_X^2

Rechenregeln:

  • VarfX{aX+b}=a2VarfX{X}\operatorname{Var}_{f_X}\{aX+b\} = a^2 \operatorname{Var}_{f_X}\{X\}
  • VarfX{X}=EfX{X2}(EfX{X})2\operatorname{Var}_{f_{X}}\{X\}=\mathrm{E}_{f_{X}}\left\{X^{2}\right\}-\left(\mathrm{E}_{f_{X}}\{X\}\right)^{2}
  • aa is eine Konstante
    • VarfX{a}=0\operatorname{Var}_{f_X}\{a\} = 0
    • VarfX{a±X}=VarfX{X}\operatorname{Var}_{f_X}\{a \pm X\} = \operatorname{Var}_{f_X}\{X\}
  • Var{X,Y}=E{XY}μXμY\operatorname{Var}\{X, Y\} = E\{XY\} - \mu_X \mu_Y

Kovarianzmatrix

  • Üb 2, A2.3
  • Üb 4, A5
Covfx{X}=Efx{(Xμ)(Xμ)}=[σX12σX1X2σX1XNσX2X1σX22σX2XNσXNX1σXNX2σXN2]=[σX12ρX1,X2σX1σX2ρX1,XNσX1σXNρX2,X1σX2σX1σX22ρX2,XNσX2σXNρXN,X1σXNσX1ρXN,X2σXNσX2σXN2] \begin{array}{l} \operatorname{Cov}_{f_{\underline{x}}}\{\underline{X}\}=\mathrm{E}_{f_{\underline{\underline{x}}}}\left\{(\underline{X}-\underline{\mu})(\underline{X}-\underline{\mu})^{\top}\right\}\\ \newline =\left[\begin{array}{cccc} \sigma_{X_{1}}^{2} & \sigma_{X_1 X_2} & \cdots & \sigma_{X_1 X_N} \\ \sigma_{X_2 X_1} & \sigma_{X_{2}}^{2} & \cdots & \sigma_{X_2 X_N} \\ \vdots & \vdots & \ddots & \vdots \\ \sigma_{X_N X_1} & \sigma_{X_N X_2} & \cdots & \sigma_{X_{N}}^{2} \end{array}\right] \newline =\left[\begin{array}{cccc} \sigma_{X_{1}}^{2} & \rho_{X_{1}, X_{2}} \sigma_{X_{1}} \sigma_{X_{2}} & \cdots & \rho_{X_{1}, X_{N}} \sigma_{X_{1}} \sigma_{X_{N}} \\ \rho_{X_{2}, X_{1}} \sigma_{X_{2}} \sigma_{X_{1}} & \sigma_{X_{2}}^{2} & \cdots & \rho_{X_{2}, X_{N}} \sigma_{X_{2}} \sigma_{X_{N}} \\ \vdots & \vdots & \ddots & \vdots \\ \rho_{X_{N}, X_{1}} \sigma_{X_{N}} \sigma_{X_{1}} & \rho_{X_{N}, X_{2}} \sigma_{X_{N}} \sigma_{X_{2}} & \cdots & \sigma_{X_{N}}^{2} \end{array}\right] \end{array}

Positiv definit, positiv semidefinit

Eine beliebige (ggf. symmetrische bzw. hermitesche) n×nn \times n-Matrix AA ist

  • positiv definit, falls

    xTAx>0 x^T A x > 0
  • positiv semidefinit, falls

    xTAx0 x^T A x \geq 0

Weißes Rauschen

Uncertainties taken at different time steps are also independent

System-Eigenschaften: dynamisch, statisch, linear, zeitinvariant

Statisch: Der aktuellen Ausgang yky_k ist abhängig von dem aktuellen Eingang uku_k.

Dynamisch: Der aktuellen Ausgang yky_k ist abhängig von

  • dem aktuellen Eingang uku_k
  • dem aktuellen Zustand xkx_k

Bei wertkontinuierlicher linearer Systeme:

Üb 5, A1
  • Linear

    S{i=1Nciyei,n}=i=1NciS{yei,n} \mathcal{S}\left\{\sum_{i=1}^{N} c_{i} y_{\mathrm{e} i, n}\right\}=\sum_{i=1}^{N} c_{i} \mathcal{S}\left\{y_{\mathrm{e} i, n}\right\}

    (also höhste Exponent 1\leq 1)

  • Zeitinvariant

    Das System antwortet auf ein zeitlich verschobenes Eingangssignal ye,nn0y_{\mathrm{e}, n-n_{0}} mit dem entsprechend zeitlichverschobenen Ausgangssignal ya,nn0y_{\mathrm{a}, n-n_{0}}

    ya,n=S{ye,n}ya,nn0=S{ye,nn0}. y_{\mathrm{a}, n}=\mathcal{S}\left\{y_{\mathrm{e}, n}\right\} \quad \Longrightarrow \quad y_{\mathrm{a}, n-n_{0}}=\mathcal{S}\left\{y_{\mathrm{e}, n-n_{0}}\right\}.

    (also unabhängig von dem Zeitindex kk)

  • Kausalität

    Ein zeitdiskretes System S heißt kausal, wenn die Antwort NUR von gegenwärtigen oder vergangenen, NICHT jedoch von zukünftigen Werten des Eingangssignals abhängt.

Dirac Funktion

Definition:

δ(x)=0,x0abδ(x)dx=1a<x<b \begin{aligned} \delta(x)&=0, \quad x \neq 0 \\ \int_{a}^b \delta(x) dx &= 1 \quad a < x < b \end{aligned}

Rechenregeln

  • Verschiebung

    abf(x)δ(xx0)dx=f(x0) \int_{a}^{b} f(x) \delta\left(x-x_{0}\right) \mathrm{d} x=f\left(x_{0}\right)
  • Symmetrie

    δ(x)=δ(x) \delta(x) = \delta(-x)
  • Skalierung

    abf(x)δ(kx)dx=1kf(0) \int_{a}^{b} f(x) \delta(|k| x) \mathrm{d} x=\frac{1}{|k|} f(0)
  • Hintereinanderausführung

    f(x)δ(g(x))dx=i=1nf(xi)g(xi) \int_{-\infty}^{\infty} f(x) \delta(g(x)) \mathrm{d} x=\sum_{i=1}^{n} \frac{f\left(x_{i}\right)}{\left|g^{\prime}\left(x_{i}\right)\right|}

    wobei g(xi)=0g(x_i) = 0 und g(xi)0g^\prime(x_i) \neq 0.

  • Verkettung auflösen (super wichtig!!!)

    δ(g(x))=i1g(xi)δ(xxi) \delta(g(x)) = \sum_i \frac{1}{g^\prime(x_i)} \delta(x - x_i)

    wobei g(xi)=0g(x_i) = 0 und g(xi)0g^\prime(x_i) \neq 0.

Dirac Mixture

f(x)=i=1Lwiδ(xx^i) f(x)=\sum_{i=1}^{L} w_{i} \delta(\underline{x}-\underline{\hat{x}}_i)