Nichtlineare Schätzung

Approximation durch Linearisierung

Idea

  1. Linearisierung der nichtlinear Funktion

    截屏2022-07-03 21.42.26
  2. (Normal/Linear) Kalman Filter anwenden

Systemmodell

xk+1=ak(xk,uk)(Systemmodell) \underline{x}_{k+1}=\underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right) \tag{Systemmodell}

Linearisierung der rechten Seite von (Systemmodell)\text{(Systemmodell)} mit Taylor-Entwicklung von xk,uk\underline{\overline{x}}_k, \underline{\overline{u}}_k :

ak(xk,uk)=ak(xk,uk)+ak(xk,uk)xkxk=xˉk,uk=uˉk=A(xkxk)=Δxk+THO+ak(xk,uk)ukxk=xˉk,uk=uˉk=B(ukuk)+THO \begin{array}{ll} &\underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right) = \underline{a}_{k}\left(\underline{\overline{x}}_k, \underline{\overline{u}}_k\right) &+ \overbrace{\left.\frac{\partial \underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right)}{\partial \underline{x}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\bar{x}}_{k}, \underline{u}_{k}=\underline{\bar{u}}_{k}}}^{=\mathbf{A}} \cdot \overbrace{(\underline{x}_{k} - \underline{\overline{x}}_k)}^{=\Delta \underline{x}_{k}} + \text{THO} \\\\ & & + \underbrace{\left.\frac{\partial \underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right)}{\partial \underline{u}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\bar{x}}_{k}, \underline{u}_{k}=\overline{\underline{\bar{u}}}_{k}}}_{=\mathbf{B}} \cdot (\underline{u}_{k} - \underline{\overline{u}}_k) + \text{THO} \end{array}
  • THO\text{THO}: Terme höherer Ordnung

  • Jacobi-Matrizen

    Ak=[ak,1xk,1ak,1xk,Nak,Nxk,1ak,Nxk,N]xk=xk,uk=uˉkBk=[ak,1uk,1ak,1uk,Nak,Nuk,1ak,Nuk,N]xk=xk,uk=uˉk \begin{array}{l} \mathbf{A}_{k}=\left[\begin{array}{ccc} \frac{\partial a_{k, 1}}{\partial x_{k, 1}} & \cdots & \frac{\partial a_{k, 1}}{\partial x_{k, N}} \\ \vdots & & \vdots \\ \frac{\partial a_{k, N}}{\partial x_{k, 1}} & \cdots & \frac{\partial a_{k, N}}{\partial x_{k, N}} \end{array}\right]_{\underline{x}_{k}=\overline{\underline{x}}_{k}, \underline{u}_{k}= \bar{\underline{u}}_{k}} \\\\ \mathbf{B}_{k}=\left[\begin{array}{ccc} \frac{\partial a_{k, 1}}{\partial u_{k, 1}} & \cdots & \frac{\partial a_{k, 1}}{\partial u_{k, N}} \\ \vdots & & \vdots \\ \frac{\partial a_{k, N}}{\partial u_{k, 1}} & \cdots & \frac{\partial a_{k, N}}{\partial u_{k, N}} \end{array}\right]_{\underline{x}_{k}=\overline{\underline{x}}_{k}, \underline{u}_{k}= \bar{\underline{u}}_{k}} \end{array}

Annahme

  • Ableitung existiert
  • ak(,)\underline{a}_k(\cdot, \cdot) ausreichend linear um xk,uk\underline{\overline{x}}_k, \underline{\overline{u}}_k

Vernachlässigen von THO\text{THO} \Rightarrow

ak(xk,uk)ak(xk,uk)+Ak(xkxk)+Bk(ukuk) \underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right) \approx \underline{a}_{k}\left(\underline{\overline{x}}_k, \underline{\overline{u}}_k\right)+\mathbf{A}_{k}\left(\underline{x}_k-\underline{\overline{x}}_k\right)+\mathbf{B}_{k}\left(\underline{u}_{k}-\underline{\overline{u}}_k\right)

Für die linke Seite von (Systemmodell)(\text{Systemmodell}):

xk+1=xk+1+Δxk+1 \underline{x}_{k+1}= \underline{\overline{x}}_{k+1} + \Delta \underline{x}_{k+1}

Für uk\underline{u}_{k} definiere man

uk:=u^k+wk \underline{u}_{k}:=\underline{\hat{u}}_{k}+\underline{w}_{k}

mit E{wk}=0,Cov{wk}=CkwE\left\{\underline{w}_{k}\right\}=0, \operatorname{Cov}\left\{\underline{w}_{k}\right\}=\mathbf{C}_{k}^{w}

  • Lineariesierung: uk=!u^kΔuk=ukuk=wk\overline{\underline{u}}_{k} \overset{!}{=} \hat{\underline{u}}_{k} \Rightarrow \Delta \underline{u}_{k}= \underline{u}_{k} -\overline{\underline{u}}_{k} = \underline{w}_{k} (d.h. die Abweichung wk\underline{w}_k ist ein Rauschen)

  • Äquivalentes Rauschen

    wk=BkwkE{wk}=0,Cov{wk}=BkCkwBk w_{k}^{\prime}=\mathbf{B}_{k} \cdot w_{k} \Rightarrow E\left\{w_{k}^{\prime}\right\}=0, \operatorname{Cov}\left\{w_{k}^{\prime}\right\}=\mathbf{B}_{k} \cdot \mathbf{C}_{k}^{w} \cdot \mathbf{B}_{k}^{\top}

Durch obige Linearisierung der beiden Seiten kann man das Systemmodell so schreiben:

xk+1+Δxk+1ak(xk,uk)+AkΔxk+wk \underline{\overline{x}}_{k+1} + \Delta \underline{x}_{k+1} \approx \underline{a}_{k}\left(\underline{\overline{x}}_k, \underline{\overline{u}}_k\right)+\mathbf{A}_{k}\Delta \underline{x}_k+\underline{w}_k^\prime
  • Nominalteil

    xk+1=ak(xk,uk) \underline{\overline{x}}_{k+1} = \underline{a}_{k}\left(\underline{\overline{x}}_k, \underline{\overline{u}}_k\right)
  • Differentialteil

    Δxk+1AkΔxk+wk \Delta \underline{x}_{k+1} \approx \mathbf{A}_{k}\Delta \underline{x}_k+\underline{w}_k^\prime

Messgleichung

yk=hk(xk,vk)(Messgleichung) \underline{y}_{k}=\underline{h}_{k}\left(\underline{x}_{k}, \underline{v}_{k}\right) \tag{Messgleichung}

Linearisierung der rechten Seite um xˉk,vˉk\underline{\bar{x}}_{k}, \underline{\bar{v}}_{k} :

hk(xk,vk)hk(xˉk,vˉk)+Hk(xkxˉk)=Δxk+Lk(vkvˉk) \underline{h}_{k}\left(\underline{x}_{k}, \underline{v}_{k}\right) \approx \underline{h}_{k}\left(\underline{\bar{x}}_{k}, \underline{\bar{v}}_{k}\right)+\mathbf{H}_{k} \cdot \underbrace{\left(\underline{x}_{k}-\underline{\bar{x}}_{k}\right)}_{=\Delta \underline{x}_k}+\mathbf{L}_{k} \cdot\left(\underline{v}_{k}-\underline{\bar{v}}_{k}\right)

mit Jacobi-Matrizen

Hk=hk(xk,vk)xkxk=xk,vk=vˉkLk=hk(xk,vk)vkxk=xk,vk=vˉk \mathbf{H}_{k}=\left.\frac{\partial \underline{h}_{k}\left(\underline{x}_{k}, \underline{v}_{k}\right)}{\partial \underline{x}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{x}_{k}, \underline{v}_{k}=\underline{\bar{v}}_{k}} \qquad \mathbf{L}_{k}=\left.\frac{\partial \underline{h}_{k}\left(\underline{x}_{k}, \underline{v}_{k}\right)}{\partial \underline{v}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{x}_{k}, \underline{v}_{k}=\underline{\bar{v}}_{k}}

Sei vˉk=v^k\underline{\bar{v}}_{k} = \underline{\hat{v}}_{k} für mittelwertfreies vkv^k=0\underline{v}_{k} \Rightarrow \underline{\hat{v}}_{k} = \underline{0}

Das Effektive Rauschen ist dann

vk=Lkvk \underline{v}_{k}^\prime = \mathbf{L}_{k} \cdot \underline{v}_{k}

mit

E{vk}=0,Cov{vk}=LkCkvLk E\left\{\underline{v}_{k}^{\prime}\right\}=\underline{0}, \quad \operatorname{Cov}\left\{\underline{v}_{k}^{\prime}\right\}=\mathbf{L}_{k} \cdot \mathbf{C}_{k}^{v} \cdot \mathbf{L}_{k}^{\top}

Damit kann man die Messgliechung so umschreiben:

yk=yˉk+Δykhk(xˉk,vˉk)+HkΔxk+vk \underline{y}_{k}=\underline{\bar{y}}_{k}+\Delta \underline{y}_{k} \approx \underline{h}_{k}\left(\underline{\bar{x}}_{k}, \underline{\bar{v}}_{k}\right)+\mathbf{H}_{k} \Delta \underline{x}_{k}+\underline{v}_{k}^{\prime}
  • Nominalteil

    yˉk=hk(xˉk,vˉk) \underline{\bar{y}}_{k} = \underline{h}_{k}\left(\underline{\bar{x}}_{k}, \underline{\bar{v}}_{k}\right)
  • Differentialteil

    ΔykHkΔxk+vk \Delta \underline{y}_{k} \approx \mathbf{H}_{k} \Delta \underline{x}_{k}+\underline{v}_{k}^{\prime}

Erweitertes Kalmanfilter (EKF)

💡Linearisierung um jeweils beste Schätzung

  • Prädiktion

    • Berechnung Erwartungswert über nichtlineare Funktion

      x^k+1p=ak(x^ke,u^k) \underline{\hat{x}}_{k+1}^{p}=\underline{a}_{k}\left(\underline{\hat{x}}_{k}^{e}, \hat{\underline{u}}_{k}\right)
    • Berechnung Kovarianzmatrix über die Linearisierung

      Ck+1pAkCkeAk+Ckw=AkCkeAk+BkCkwBk \mathbf{C}_{k+1}^{p} \approx \mathbf{A}_{k} \mathbf{C}_{k}^{e} \mathbf{A}_{k}^{\top}+\mathbf{C}_{k}^{w^{\prime}}=\mathbf{A}_{k} \mathbf{C}_{k}^{e} \mathbf{A}_{k}^{\top}+\mathbf{B}_{k} \mathbf{C}_{k}^{w} \mathbf{B}_{k}^{\top}

      mit

      Ak=ak(xk,uk)xkxk=x^k1e,uk=u^kBk=ak(xk,uk)ukxk=x^k1e,uk=u^k \mathbf{A}_k = \left.\frac{\partial \underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right)}{\partial \underline{x}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k-1}^{e}, \underline{u}_{k}=\hat{\underline{u}}_{k}} \qquad \mathbf{B}_k = \left.\frac{\partial \underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right)}{\partial \underline{u}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k-1}^{e}, \underline{u}_{k}=\hat{\underline{u}}_{k}}
  • Filterung

    • Berechnung von yˉk\underline{\bar{y}}_k (Messung, die aus dem prioren Schätzwert (also die Prädiktion) bekomme, als Nominalwert zum jetztigen Zeitpunkt)

      yˉk=hk(xˉkp,v^k) \underline{\bar{y}}_k = \underline{h}_k(\underline{\bar{x}}_k^p, \underline{\hat{v}}_k)
    • Berechnung von Δyk\Delta \underline{y}_k

      Δyk=y^kyˉk \Delta \underline{y}_{k}=\underline{\hat{y}}_{k}-\underline{\bar{y}}_{k}
      • y^k\underline{\hat{y}}_{k} : wahre Messung

      und

      ΔykHk(xkex^kp)+vk \Delta \underline{y}_{k} \approx \mathbf{H}_{k} \cdot\left(\underline{x}_{k}^{e}-\underline{\hat{x}}_{k}^{p}\right)+\underline{v}_{k}^{\prime}

      mit

      Hk=hk(xk,vk)xkxk=x^kp,vk=v^kLk=hk(xk,vk)vkxk=x^kp,vk=v^k \mathbf{H}_{k}=\left.\frac{\partial \underline{h}_{k}\left(\underline{x}_{k}, \underline{v}_{k}\right)}{\partial \underline{x}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k}^{p}, \underline{v}_{k}=\underline{\hat{v}}_{k}} \qquad \mathbf{L}_{k}=\left.\frac{\partial \underline{h}_{k}\left(\underline{x}_{k}, \underline{v}_{k}\right)}{\partial \underline{v}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k}^{p}, \underline{v}_{k}=\underline{\hat{v}}_{k}}

    Filterung Schritt

    Kk=CkpHk(LkCkvLk+HkCkpHkT)1x^ke=x^kp+Kk[y^khk(x^kp,v^k)]Cke=CkpKkHkCkp=(IKkHk)Ckp \begin{aligned} \mathbf{K}_{k}&=\mathbf{C}_{k}^{p} \mathbf{H}_{k}^{\top}\left(\mathbf{L}_{k} \mathbf{C}_{k}^{v} \mathbf{L}_{k}^{\top}+\mathbf{H}_{k} \mathbf{C}_{k}^{p} \mathbf{H}_{k}^{T}\right)^{-1} \\\\ \hat{\underline{x}}_{k}^{e}&=\hat{\underline{x}}_{k}^{p}+\mathbf{K}_{k}\left[\hat{\underline{y}}_{k}-\underline{h}_{k}\left(\hat{\underline{x}}_{k}^{p}, \hat{\underline{v}}_{k}\right)\right] \\\\ \mathbf{C}_{k}^{e}&=\mathbf{C}_{k}^{p}-\mathbf{K}_{k} \mathbf{H}_{k} \mathbf{C}_{k}^{p} = (\mathbf{I} - \mathbf{K}_{k} \mathbf{H}_{k})\mathbf{C}_{k}^{p} \end{aligned}

Probleme bei Linearisierung

  • Berechnung der posteriore Verteilung nur gut für “schwache” Nichtlinearität

    \rightarrow Induzierte Nichtlinearität durch die Unsicherheit in priorer Dichte (Die Nichtlinearität ist induziert durch die Unsicherheit der priorer Dichte)

    截屏2022-08-24 15.52.30

    Wenn wir für priore Dichte kleines/schmales Rauschen (unten, schwarz) verwenden, dann funktioniert es gut.

    Wenn wir das Rauschen breiter machen (unten, grün), dann kommt ein Problem vor, dass die resultierende Dichte von yy nicht symmetrisch ist.

    Induzierte nichtlinearität heißt: wir können gar nicht sagen, die ist absolut betrachtet, besonders linear oder besonders nichtlinear. Es ist potential, Problem zu machen. Aber sie macht kein Problem, solange ich mich nur in den linken Bereich oder nur in den rechten Bereich des “Knickpunkt” aufhalten. Wenn wir die Dichte habe, die über den “Knickpunkt” weggeht, dann bekomme ich Problem. Das ist die induzierte nichtlinearität, die durch das Rauschen induziert wird.

  • Linearisierung nur um einen Punkt

  • Linearisiertes System ist i.A. zeitvariant, auch wenn originalsytstem zeitinvariant ist, da Linearisierung vom Schätzwert abhängt.

Schätzung in probabilistischer Form: Nichtlineares Kalmanfilter

Erwartungswertbildung

Gegeben:

  • Funktion y=g(x)\underline{y}=\underline{g}(\underline{x})
  • xfx(x)\underline{x} \sim f_x(x)

Gesucht: Bestimmte Momente von y\underline{y}

Z.B. für skalares Fall

y=g(x) y = g(x)

suchen wir E{yj},jNE\left\{y^{j}\right\}, j \in \mathbb{N} .

Wir wissen

E{yi}=Ryjfy(y)dy E\left\{y^{i}\right\}=\int_{\mathbb{R}} y^{j} f_{y}(y) d y

Aber

  • fy(y)f_y(y) , posteriore Dichte, ist oft nicht einfach berechbar
  • Falls berechbar, die Berechnung von fy(y)f_y(y) is viel zu aufwändig, wenn nur Momente benötigt werden

Theorem (Dualität bei Erwartungswertbildung)

E\_{f\_y}\left\\{y^{j}\right\\}=E\_{f\_{x}}\left\\{[g(x)]^{j}\right\\}=\int\_{\mathbb{R}}[g(x)]^{j} f\_{x}(x) d x
  • fy(y)f_y(y) muss also nicht berechnet werden.
  • Nützlich, wenn
    • fy(y)f_y(y) schwer zu berechnen
    • 1-order nichtlineare Momente von fx()f_x(\cdot) einfach berechenbar

Für sample-basierte Approximation der prioren Dichte fx(x)f_x(x)

fx(x)=i=1Lwiδ(xxi) f_{x}(x)=\sum_{i=1}^{L} w_{i} \delta\left(x-x_{i}\right)

ist berechnung der posterioren Dichte fy(y)f_y(y) trivial.

fy(y)=i=1Lwiδ(yyi),yi=g(xi) f_y(y)=\sum_{i=1}^{L} w_{i} \delta\left(y-y_{i}\right), \quad y_{i}=g\left(x_{i}\right)

Damit

E{yj}=Ryjfy(y)dy=i=1Lwiyij=i=1Lwi[g(xi)]j E\left\{y^{j}\right\}=\int_{\mathbb{R}} y^{j} f_{y}(y) d y=\sum_{i=1}^{L} w_{i} y_{i}^{j}=\sum_{i=1}^{L} w_{i}\left[g\left(x_{i}\right)\right]^{j}

und

E{[g(x)]j}=R[g(x)]jfx(x)dx=i=1Lwi[g(xi)]j E\left\{[g(x)]^{j}\right\}=\int_{\mathbb{R}}[g(x)]^{j} f_{x}(x) d x=\sum_{i=1}^{L} w_{i}\left[g\left(x_{i}\right)\right]^{j}

Die Berechnungen sind in diesem Fall identisch, aber im allgemeinem Fall gilt dies NICHT! 🤪

Prädiktion in probabilistischer Form

Systemmodell

xk+1=ak(xk,uk) x_{k+1}=\underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right)
  • x\underline{x} : Zustand
  • u\underline{u} : Störgröße

Für einen Kalman Filter, wir möchte in nächsten Schritt die Erwartungswert und die Kovarianzmatrix haben.

Erwartungswert

x^k+1p=E{ak(xk,uk)}=RNRpak(xk,uk)fkxu(xk,uk)dxkduk \hat{x}_{k+1}^{p}=E\left\{\underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right)\right\}=\int_{\mathbb{R}^{N}} \int_{\mathbb{R}^{p}} \underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right) f_{k}^{x u}\left(\underline{x}_{k}, \underline{u}_{k}\right) d\underline{x}_{k} d\underline{u}_{k}

In der Regel sind xk,uk\underline{x}_{k}, \underline{u}_{k} unabhängig. Also

fkxu(xk,uk)=fke(xk)fku(uk). f_{k}^{x u}\left(\underline{x}_{k}, \underline{u}_{k}\right) = f_{k}^{e}\left(\underline{x}_{k}\right) \cdot f_{k}^{u}\left(\underline{u}_{k}\right).

Und nehme an, dass xk,uk\underline{x}_{k}, \underline{u}_{k} normalverteilt sind, also

fke(xu)=N(xk,x^ke,Cke)fku(uk)=N(uk,u^k,Ckw) \begin{aligned} f_{k}^{e}\left(\underline{x}_{u}\right) &= \mathcal{N}(\underline{x}_{k}, \hat{x}_{k}^{e}, \mathbf{C}_{k}^{e}) \\\\ f_{k}^{u}\left(\underline{u}_{k}\right) &= \mathcal{N}\left(\underline{u}_{k}, \hat{\underline{u}}_{k}, \mathbf{C}_{k}^{w}\right) \end{aligned}

Für additives Rauschen

xk+1=ak(xk)+uk(=ak(xk)+(u^k+wk)) \underline{x}_{k+1}=\underline{a}_{k}\left(\underline{x}_{k}\right)+\underline{u}_{k} \left(= \underline{a}_{k}\left(\underline{x}_{k}\right)+(\underline{\hat{u}}_{k} + \underline{w}_k)\right)

gilt

x^k+1p=Rnak(xk)fke(xk)dxk+u^k \underline{\hat{x}}_{k+1}^{p}=\int_{\mathbb{R}^{n}} \underline{a}_{k}\left(\underline{x}_{k}\right) \cdot f_{k}^{e}\left(\underline{x}_{k}\right) d \underline{x}_{k}+\underline{\hat{u}}_{k}

Dann ist

xk+1x^k+1p=(ak(xk)+(u^k+wk))(Rnak(xk)fke(xk)dxk+u^k)=ak(xk)Rnak(xk)fke(xk)dxk:=aˉk(xk)+wk \begin{aligned} \underline{x}_{k+1} - \underline{\hat{x}}_{k+1}^{p} &= (\underline{a}_{k}(\underline{x}_{k})+(\underline{\hat{u}}_{k} + \underline{w}_k)) - \left(\int_{\mathbb{R}^{n}} \underline{a}_{k}\left(\underline{x}_{k}\right) \cdot f_{k}^{e}\left(\underline{x}_{k}\right) d \underline{x}_{k}+\underline{\hat{u}}_{k}\right) \\\\ &= \underbrace{\underline{a}_{k}(\underline{x}_{k}) - \int_{\mathbb{R}^{n}} \underline{a}_{k}\left(\underline{x}_{k}\right) \cdot f_{k}^{e}\left(\underline{x}_{k}\right) d \underline{x}_{k}}_{:= \underline{\bar{a}}_{k}(\underline{x}_{k})} + \underline{w}_k \end{aligned}

Die Kovarianzmatrix ist

Ck+1p=E{(xk+1x^k+1p)(xk+1x^k+1p)}=E{(aˉk(xk)+wk)(aˉk(xk)+wk)}=E{aˉk(xk)aˉk(xk)+wkaˉk(xk)+aˉk(xk)wk+wkwk}=E{aˉk(xk)aˉk(xk)}+E{wkaˉk(xk)}=0+E{aˉk(xk)wk}=0+E{wkwk}=E{aˉk(xk)aˉk(xk)}+E{wkwk}=RNak(xk)ak(xk)fke(xk)dxk+Ckw \begin{aligned} \mathbf{C}_{k+1}^{p} &= E\left\{\left(\underline{x}_{k+1}-\underline{\hat{x}}_{k+1}^{p}\right)(\underline{x}_{k+1}-\underline{\hat{x}}_{k+1}^{p})^{\top}\right\} \\\\ &= E\left\{(\underline{\bar{a}}_{k}(\underline{x}_{k}) + \underline{w}_k) (\underline{\bar{a}}_{k}(\underline{x}_{k}) + \underline{w}_k) ^ \top\right\} \\\\ &= E\left\{\underline{\bar{a}}_{k}(\underline{x}_k) \underline{\bar{a}}_{k}^\top(\underline{x}_k) + \underline{w}_k\underline{\bar{a}}_{k}(\underline{x}_k) + \underline{\bar{a}}_{k}(\underline{x}_k)\underline{w}_k^\top + \underline{w}_k\underline{w}_k^\top\right\} \\\\ &= E\left\{\underline{\bar{a}}_{k}(\underline{x}_k) \underline{\bar{a}}_{k}^\top(\underline{x}_k)\right\} + \underbrace{E\left\{\underline{w}_k\underline{\bar{a}}_{k}(\underline{x}_k)\right\}}_{=0} + \underbrace{E\left\{\underline{\bar{a}}_{k}(\underline{x}_k)\underline{w}_k^\top\right\}}_{=0} + E\left\{\underline{w}_k\underline{w}_k^\top\right\} \\\\ &= E\left\{\underline{\bar{a}}_{k}(\underline{x}_k) \underline{\bar{a}}_{k}^\top(\underline{x}_k)\right\} + E\left\{\underline{w}_k\underline{w}_k^\top\right\} \\\\ &= \int_{\mathbb{R}^{N}} \overline{\underline{a}}_{k}\left(\underline{x}_{k}\right) \overline{\underline{a}}_{k}^{\top}\left(x_{k}\right) f_{k}^{e}\left(\underline{x}_{k}\right) d \underline{x}_{k}+\mathbf{C}_{k}^{w} \end{aligned}

Filterung in probabilistischer Form

Einschub: Konditionierung einer Gaußschen Verbunddichte

Zufallsvektor z=[xy]\underline{z}=\left[\begin{array}{l}\underline{x} \\ \underline{y}\end{array}\right] mit Gaußcher Verbundverteilung:

f(z)=N(z1,z^,Cz),z^=[x^y^],Cz=[CxxCxyCyxCyy] f(\underline{z})=\mathcal{N}\left(\underline{z}_{1}, \underline{\hat{z}}, \mathbf{C}_{z}\right), \quad \underline{\hat{z}}=\left[\begin{array}{l} \underline{\hat{x}} \\ \underline{\hat{y}} \end{array}\right], \quad \mathbf{C}_{z}=\left[\begin{array}{ll} C_{x x} & C_{x y} \\ C_{y x} & C_{y y} \end{array}\right] wertkontinuierliche_nichtlineare_system-Konditionierung_gauss_verbunddichte.drawio

Gegeben: Messung yy^\ast

Konditionale Verteilung:

f(xy)=N(x,x^,Cx) \begin{equation} f\left(\underline{x} \mid \underline{y}^{\ast}\right)= \mathcal{N}\left(\underline{x}, \underline{\hat{x}}^{*}, \mathbf{C}_{x}^{\ast}\right) \end{equation}

Dann ist

x^=x^+CxyCyy1(yy^)Cx=CxxCxyCyy1Cyx(*) \begin{array}{l} \underline{\hat{x}}^{\ast}=\underline{\hat{x}}+C_{x y} C_{y y}^{-1}\left(\underline{y}^{*}-\underline{\hat{y}}\right) \\ \mathbf{C}_{x}^{\ast}=C_{x x}-C_{x y} C_{y y}^{-1} C_{y x} \end{array} \tag{*}

Alternative Herleitung Kalmanfilter

Messmodell

y=Hx+v \underline{y}=\mathbf{H} \cdot \underline{x}+\underline{v}

Gegeben:

xpN(x^p,Cp),vN(0,Cv) \underline{x}_{p} \sim \mathcal{N}\left(\hat{\underline{x}}_{p}, \mathbf{C}_{p}\right), \quad \underline{v}\sim \mathcal{N}\left(\underline{0}, \mathbf{C}_{v}\right)

Wir definiere z\underline{z} als Verbund von xp\underline{x}_{p} und y\underline{y}

z:=[xpy]=[xpHxp+v]=[I0HI][xpv] \underline{z}:=\left[\begin{array}{l} \underline{x}_{p} \\ \underline{y} \end{array}\right]=\left[\begin{array}{l} \underline{x}_{p} \\ \mathbf{H} \cdot \underline{x}_{p}+\underline{v} \end{array}\right]=\left[\begin{array}{ll} \mathbf{I} & 0 \\ \mathbf{H} & \mathbf{I} \end{array}\right]\left[\begin{array}{c} \underline{x}_{p} \\ \underline{v} \end{array}\right]

Die Erwartungswert ist dann

z^=[x^pHx^p] \underline{\hat{z}}=\left[\begin{array}{c} \hat{x}_{p} \\ \mathbf{H} \cdot \hat{x}_{p} \end{array}\right]

Die Kovairanzmatrix von z\underline{z} :

Cov{z}=E{[I0HI][xpx^pv][xpx^pv][IH0I]}=[I0HI]E{[(xpx^p)(xpx^p)=Cp(xpx^p)v=0v(xpx^p)=0vv=Cv]}[I0HI]=[I0HI][Cp00Cv][I0HI]=[CpCpHHCpCv+HCpH] \begin{array}{l} \operatorname{Cov}\{\underline{z}\}&=E\left\{\left[\begin{array}{ll} \mathbf{I} & 0 \\ \mathbf{H} & \mathbf{I} \end{array}\right]\left[\begin{array}{c} \underline{x}_{p}-\hat{\underline{x}}_{p} \\ \underline{v} \end{array}\right]\left[\begin{array}{c} \underline{x}_{p}-\underline{\hat{x}}_{p} \\ \underline{v} \end{array}\right]^{\top}\left[\begin{array}{cc} \mathbf{I} & \mathbf{H}^{\top} \\ 0 & \mathbf{I} \end{array}\right]\right\}\\\\ &=\left[\begin{array}{ll} \mathbf{I} & 0 \\ \mathbf{H} & \mathbf{I} \end{array}\right] E\left\{\left[\begin{array}{cc} \underbrace{\left(\underline{x}_{p}-\underline{\hat{x}}_{p}\right)(\underline{x}_{p}-\underline{\hat{x}}_{p})^{\top}}_{=\mathbf{C}_p} & \underbrace{\left(\underline{x}_{p}-\underline{\hat{x}}_{p}\right) \underline{v}^{\top}}_{=0} \\ \underbrace{\underline{v}\left(\underline{x}_{p}-\underline{\hat{x}}_{p}\right)}_{=0} & \underbrace{\underline{v} \underline{v}^{\top}}_{=\mathbf{C}_v} \end{array}\right]\right\}\left[\begin{array}{cc} \mathbf{I} & 0 \\ \mathbf{H} & \mathbf{I} \end{array}\right]\\\\ &=\left[\begin{array}{ll} \mathbf{I} & 0 \\ \mathbf{H} & \mathbf{I} \end{array}\right]\left[\begin{array}{cc} \mathbf{C}_p & 0 \\ 0 & \mathbf{C}_v \end{array}\right]\left[\begin{array}{cc} \mathbf{I} & 0 \\ \mathbf{H} & \mathbf{I} \end{array}\right]=\left[\begin{array}{cc} \mathbf{C}_{p} & \mathbf{C}_{p} \mathbf{H}^{\top} \\ \mathbf{H} \mathbf{C}_{p} & \mathbf{C}_{v}+\mathbf{H} \mathbf{C}_{p} \mathbf{H}^{\top} \end{array}\right] \end{array}

Lasse

Cxx=CpCxy=CpHCyx=HCpCyy=Cv+HCpH \mathbf{C}_{x x}=\mathbf{C}_{p} \quad \mathbf{C}_{x y}=\mathbf{C}_{p} \mathbf{H}^{\top} \quad \mathbf{C}_{y x}=\mathbf{H} \mathbf{C}_{p} \quad \mathbf{C}_{y y}=\mathbf{C}_{v}+\mathbf{H} \mathbf{C}_{p} \mathbf{H}^{\top}

und in ()(*) einsetzen, ergibt sich der Kalman Filter.

Filterung in probabilistischer Form

Messgleichung

y=h(x,v) \underline{y}=\underline{h}(\underline{x}, \underline{v})

Definiere

z=[xy]=[xh(x,v)]E{z}=[x^pE{h(x,v)}] \underline{z}=\left[\begin{array}{l} \underline{x} \\ \underline{y} \end{array}\right]=\left[\begin{array}{c} \underline{x} \\ \underline{h}(\underline{x}, \underline{v}) \end{array}\right] \Rightarrow E\{\underline{z}\}=\left[\begin{array}{c} \underline{\hat{x}}_{p} \\ E\{\underline{h}(\underline{x}, \underline{v})\} \end{array}\right]

Bei additivem Rauschen

y=h(x)+v y=\underline{h}(\underline{x})+\underline{v}

gilt

E{z}=[x^pE{h(x)}],E{h(x)}=RNh(x)fp(x)=N(x,x^p,Cp)dxRM E\{\underline{z}\}=\left[\begin{array}{c} \underline{\hat{x}}_{p} \\ E\{\underline{h}(x)\} \end{array}\right], \quad E\{\underline{h}(x)\}=\int_{\mathbb{R}^{N}} \underline{h}(x) \underbrace{f_{p}(x)}_{= \mathcal{N}(\underline{x}, \underline{\hat{x}}_{p}, \mathbf{C}_p)} d \underline{x} \in \mathbb{R}^{M}

Kovarianzmatrix:

image-20220711122807030

E{(xx^p)}hˉ(x)=RN(xx^p)hˉfp(x)dxRN×M E\left\{\left(\underline{x}-\underline{\hat{x}}_{p}\right)\right\} \underline{\bar{h}}^{\top}(\underline{x}) = \int_{\mathbb{R}^N} (\underline{x}-\underline{\hat{x}}_{p}) \underline{\bar{h}}^{\top} f_p(\underline{x}) d\underline{x} \in \mathbb{R}^{N \times M} E{hˉ(x)hˉ(x)}=RNhˉ(x)hˉ(x)fp(x)dxRM×M E\left\{\underline{\bar{h}}(x) \underline{\bar{h}}^{\top}(\underline{x})\right\} = \int_{\mathbb{R}^N} \underline{\bar{h}}(x) \underline{\bar{h}}^{\top}(\underline{x}) f_p(\underline{x}) d\underline{x} \in \mathbb{R}^{M \times M} Cov{z}=[CxxRN×NCxyRN×MCyxRM×NCyyRM×M]R(N+M)×(N+M) \operatorname{Cov}\{\underline{z}\}=\left[\begin{array}{ll} \overbrace{C_{x x}}^{\mathbb{R}^{N \times N}} & \overbrace{C_{x y}}^{\mathbb{R}^{N \times M}}\\ \underbrace{C_{y x}}_{\mathbb{R}^{M \times N}} & \underbrace{C_{y y}}_{\mathbb{R}^{M \times M}} \end{array}\right] \in R^{(N+M) \times (N+M)}

Einsetzen in ()(\ast) ergibt sich der Nichtlineare Kalman Filter:

x^e=x^p+CxyCyy1(y^E{h(x)})Ce=CpCxyCyy1Cyx \begin{array}{l} \underline{\hat{x}}_{e}=\underline{\hat{x}}_{p}+\mathbf{C}_{x y} \mathbf{C}_{y y}^{-1}(\underline{\hat{y}}-E\{\underline{h}(\underline{x})\}) \\ \mathbf{C}_{e}=\mathbf{C}_{p}-\mathbf{C}_{x y} \mathbf{C}_{y y}^{-1} \mathbf{C}_{y x} \end{array}