<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>EnKF | Haobin Tan</title><link>https://haobin-tan.netlify.app/tags/enkf/</link><atom:link href="https://haobin-tan.netlify.app/tags/enkf/index.xml" rel="self" type="application/rss+xml"/><description>EnKF</description><generator>Hugo Blox Builder (https://hugoblox.com)</generator><language>en-us</language><lastBuildDate>Fri, 15 Jul 2022 00:00:00 +0000</lastBuildDate><image><url>https://haobin-tan.netlify.app/media/icon_hu7d15bc7db65c8eaf7a4f66f5447d0b42_15095_512x512_fill_lanczos_center_3.png</url><title>EnKF</title><link>https://haobin-tan.netlify.app/tags/enkf/</link></image><item><title>Ensemble Kalmanfilter (EnKF)</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/wertekontinuierliche_nichtlineare_systeme/ensemble_kalmanfilter/</link><pubDate>Fri, 15 Jul 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/wertekontinuierliche_nichtlineare_systeme/ensemble_kalmanfilter/</guid><description>&lt;h2 id="motivation">Motivation&lt;/h2>
&lt;p>Prädiktionsschritt von Nichtlineares Kalmanfilter (NLKF) $\rightarrow$ speziell Variante sample-basiert&lt;/p>
&lt;p>
&lt;figure >
&lt;div class="flex justify-center ">
&lt;div class="w-100" >&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/EnKF.drawio.png" alt="EnKF.drawio" loading="lazy" data-zoomable />&lt;/div>
&lt;/div>&lt;/figure>
&lt;/p>
&lt;p>Durch Re-approximation mit Gaußdichte $\rightarrow$ Zusatzinformation verloren&lt;/p>
&lt;p>Wenn keine Messungen vorliegen und mehrere Prädiktionsschritte nacheinander $\rightarrow$ Man kann temporär Approximation fortlassen&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/EnKF-EnKF_Motivation.drawio.png" alt="EnKF-EnKF_Motivation.drawio" style="zoom:67%;" />
&lt;p>Filterschritt von NLKF&lt;/p>
$$
\begin{array}{l}
\underline{\hat{x}}_{e}=\underline{\hat{x}}_{p}+\mathbf{C}_{x y} \mathbf{C}_{y y}^{-1}(\underline{\hat{y}}-E\{\underline{h}(\underline{x})\}) \\
\mathbf{C}_{e}=\mathbf{C}_{p}-\mathbf{C}_{x y} \mathbf{C}_{y y}^{-1} \mathbf{C}_{y x}
\end{array}
$$
&lt;p>wobei&lt;/p>
$$
\begin{array}{ll}
\mathbf{C}_{x x}=\mathbf{C}_{p} \in \mathbb{R}^{N \times N}\quad &amp;\mathbf{C}_{x y} \in \mathbb{R}^{N \times M} \\
\mathbf{C}_{y x} \in \mathbb{R}^{M \times N}\quad &amp;\mathbf{C}_{yy} \in \mathbb{R}^{M \times M}
\end{array}
$$
&lt;p>Unabhängig von gewähltes Form der Momenteberechnung $\rightarrow$ Hoher Aufwand für Berechnung und Speichern der Kovairanzmatrizen 🤪&lt;/p>
&lt;h2 id="idee">Idee&lt;/h2>
&lt;ul>
&lt;li>
&lt;p>Beibehaltung der Samples nach Prädiktionsschritt $\rightarrow$ Keine Re-approximation durch Gauß&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Damit bleibt Forminformation erhalten und Unsicherheit wird in samples gespeichert.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Speicherkomplexität&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Kalmanfilter (KF)&lt;/p>
&lt;ul>
&lt;li>Erwartungswert; $N$&lt;/li>
&lt;li>Kovarianzmatrix $\frac{N(N+1)}{2}$&lt;/li>
&lt;/ul>
&lt;p>$\Rightarrow$ Insgesamt $\frac{N^2 + 3N}{2}$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>EnKF&lt;/p>
&lt;ul>
&lt;li>Ein sample: $N$&lt;/li>
&lt;li>$L$ samples: $L \cdot N$ (z.B mit sampling auf der Hauptachse gilt $L = 2N \rightarrow 2N^2$)&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Aber: spart Aufwand bei Berechnung der Kovarianzmatrix&lt;/p>
&lt;/li>
&lt;li>
&lt;p>🎯 Ziel: Rekursive Berechnung des Prädiktionsschritts&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h2 id="herausforderungen">Herausforderungen&lt;/h2>
&lt;p>Gegeben&lt;/p>
&lt;ul>
&lt;li>
&lt;p>$L$ Samples $\underline{x}_{k, i}, i = 1, \dots, L$
&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Systemabbildung&lt;/p>
$$
\underline{x}_{k+1} = \underline{a}_k(\underline{x}_k, \underline{w}_k)
$$
&lt;/li>
&lt;/ul>
&lt;p>Gesucht: $L^\prime$ Samples $\underline{x}_{k, i+1}, i = 1, \dots, L^\prime$
&lt;/p>
&lt;p>Wir benötigen Samples für $\underline{w}_k$: $\underline{w}_{k, j}, j = 1, \dots, Q$
&lt;/p>
&lt;p>‼️ Problem: Abbildung der Kombination aller Samples $\Rightarrow$ &lt;span style="color: Red">Kartesisches Produkt!!! $\Rightarrow$ Anzahl der Samples steigt bei rekursiver Prädiktion &lt;em>exponentiell&lt;/em> !!!&lt;/span>&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/EnKF-EnKF_Herausforderung.drawio.png" alt="EnKF-EnKF_Herausforderung.drawio" style="zoom:67%;" />
&lt;p>&lt;strong>Lösungsidee: Begrenzung der Abtastwerte&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Ziel: Einstellbare Anzahl an Samples $\rightarrow$ um Komplexität zu folgen&lt;/li>
&lt;li>Einfacher Fall: Konstante Anzahl Samples über Zeit&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>Anzatz 1: Über Reduktion&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Prior&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/EnKF-Reduktion.drawio.png" alt="EnKF-Reduktion.drawio" style="zoom: 67%;" />
&lt;/li>
&lt;li>
&lt;p>Posterior (also Reduktion von $\underline{x}_{k+1, i}$
)&lt;/p>
&lt;ul>
&lt;li>braucht $L \cdot Q$ Abbildungen&lt;/li>
&lt;li>Ergebnis aber oft besser&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>Ansatz 2: Anzahl von Parren mit Latin Hypercube Sampleing (LHS)&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Jede Zeile und Spalte darf NUR &lt;em>ein&lt;/em> Element erhalten&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/EnKF-LHS.drawio.png" alt="EnKF-LHS.drawio" style="zoom:80%;" />
&lt;/li>
&lt;li>
&lt;p>Optimale Wahl schwierig&lt;/p>
&lt;ul>
&lt;li>Diskretes Gütemaß ist i.d.R. zimliche kompliziert&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Triviale praktische Umsetzung: Ziehe (Konstante) Samples aus $\underline{w}_k$
für jedes $\underline{x}_{k, i}$
(aber schlecht für wenige Samples)&lt;/p>
&lt;p>Anordnung&lt;/p>
$$
\mathcal{X}_{k}=[\underbrace{\underline{x}_{k, 1}}_{\mathbb{R}^N}, \underline{x}_{k, 2}, \ldots, \underline{x}_{k, L}] \in \mathbb{R}^{N \times L}, \quad \mathcal{W}_{k}=\left[\underline{w}_{k, 1}, \underline{w}_{k, 2}, \ldots, \underline{w}_{k, L}\right] \in \mathbb{R}^{N \times L}
$$
&lt;blockquote>
&lt;p>Jede $\underline{x}_{k, i}$
und $\underline{w}_{k, j}$
ist ein Vektor.&lt;/p>
&lt;/blockquote>
&lt;p>$\underline{a}_k$
überladen:&lt;/p>
$$
\mathcal{X}_{k+1} = \underline{a}_k(\mathcal{X}_{k}, \mathcal{W}_{k})
$$
&lt;/li>
&lt;/ul>
&lt;h2 id="filterschritt">Filterschritt&lt;/h2>
&lt;p>🎯 Ziel&lt;/p>
&lt;ul>
&lt;li>Durchführung der Filterschritt NUR mit Samples
&lt;ul>
&lt;li>Direkte Überführung der prioren Samples in posteriore Samples&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>Vermeidung der Verwendung der Update-Formeln für Kovarianzmatrix
&lt;ul>
&lt;li>Reine Representation der Unsicherheiten durch Samples&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;p>Lineare Messungabbildung&lt;/p>
$$
\underline{y}=\mathbf{H} \cdot \underline{x}+\underline{v}
$$
&lt;p>Für gegebene Messung $\hat{y}$:&lt;/p>
$$
\underbrace{\underline{\hat{y}}-\underline{v}}_{=:\hat{\mathcal{Y}}}=\mathbf{H} \cdot \underline{x}
$$
&lt;p>Mess-sampleset:&lt;/p>
$$
\hat{\mathcal{Y}}=\underline{\hat{y}} \cdot \underline{\mathbb{1}}^{\top}-\mathcal{V} \qquad \mathcal{V}=\left[\underline{v}_{1}, \underline{v}_{2}, \ldots, \underline{v}_{L}\right]
$$
&lt;p>
&lt;figure >
&lt;div class="flex justify-center ">
&lt;div class="w-100" >&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/EnKF-Mess-sampleset.drawio.png" alt="EnKF-Mess-sampleset.drawio" loading="lazy" data-zoomable />&lt;/div>
&lt;/div>&lt;/figure>
&lt;/p>
&lt;p>Damit ist Update des Zustands in &amp;ldquo;combination form&amp;rdquo;&lt;/p>
$$
\mathcal{X}_{e}=(\mathbf{I}-\mathbf{K} \mathbf{H}) \mathcal{X}_{p}+\mathbf{K} \mathcal{\hat{Y}}
$$
&lt;blockquote>
&lt;p>$\mathcal{X}$ und $\mathcal{Y}$ sind Matrizen&lt;/p>
&lt;/blockquote>
&lt;p>wäre begrenzt auf additives Rauschen, aber funktioniert direkt für nichtlineare Messabbildung $\underline{y}=\underline{h}(\underline{x}, \underline{v})$.&lt;/p>
&lt;p>Alternative Herleitung&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Prädizierte Mess-samples basierend auf prioren Samples und Rauschen-samples:&lt;/p>
$$
\mathcal{Y} = \mathbf{H} \cdot \mathcal{X}_p + \mathcal{V}
$$
&lt;/li>
&lt;li>
&lt;p>Update des Zustands in &amp;ldquo;feedback form&amp;rdquo;&lt;/p>
$$
\begin{aligned}
\mathcal{X}_e &amp;= \mathcal{X}_p + \mathbf{K}(\underbrace{\underline{\hat{y}} \cdot \underline{\mathbf{1}}^\top}_{\text{gemessen}} - \underbrace{\mathcal{Y}}_{\text{Prädiktion}}) \\\\
&amp;= \mathcal{X}_e + \mathbf{K}(\underline{\hat{y}} \cdot \underline{\mathbf{1}}^\top - \mathbb{H} \mathcal{X}_p - \mathcal{V})\\\\
&amp;= (\mathbb{I} - \mathbf{K}\mathbf{H})\mathcal{X}_p + \mathbf{K}(\underbrace{\underline{\hat{y}} \cdot \underline{\mathbf{1}}^\top - \mathcal{V}}_{=\hat{\mathcal{Y}}})
\end{aligned}
$$
&lt;/li>
&lt;/ul></description></item></channel></rss>