<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Zusammenfassung | Haobin Tan</title><link>https://haobin-tan.netlify.app/tags/zusammenfassung/</link><atom:link href="https://haobin-tan.netlify.app/tags/zusammenfassung/index.xml" rel="self" type="application/rss+xml"/><description>Zusammenfassung</description><generator>Hugo Blox Builder (https://hugoblox.com)</generator><language>en-us</language><lastBuildDate>Wed, 14 Sep 2022 00:00:00 +0000</lastBuildDate><image><url>https://haobin-tan.netlify.app/media/icon_hu7d15bc7db65c8eaf7a4f66f5447d0b42_15095_512x512_fill_lanczos_center_3.png</url><title>Zusammenfassung</title><link>https://haobin-tan.netlify.app/tags/zusammenfassung/</link></image><item><title>Zusammenfassung</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/</link><pubDate>Thu, 18 Aug 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/</guid><description/></item><item><title>Mindmap</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/mindmap/</link><pubDate>Wed, 14 Sep 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/mindmap/</guid><description>&lt;p>
&lt;figure >
&lt;div class="flex justify-center ">
&lt;div class="w-100" >&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/SI_Zusammenfassung.png" alt="SI_Zusammenfassung" loading="lazy" data-zoomable />&lt;/div>
&lt;/div>&lt;/figure>
&lt;/p></description></item><item><title>Allgemeine Fragen</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/allg_fragen/</link><pubDate>Thu, 18 Aug 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/allg_fragen/</guid><description>&lt;h2 id="vorlesung-in-eigenen-worten-zusammenfassen">Vorlesung in eigenen Worten zusammenfassen&lt;/h2>
&lt;p>Die SI Vorlesung vermittelt die fundamentalen und formalen Grundlagen der Zustandsschätzung rund um Prädiktion und Filterung.&lt;/p>
&lt;h2 id="vier-behandelten-typen-von-systemen">Vier behandelten Typen von Systemen&lt;/h2>
&lt;p>erläutern&lt;/p>
&lt;ul>
&lt;li>Nennen&lt;/li>
&lt;li>Zusammenhänge&lt;/li>
&lt;li>Unterschiede&lt;/li>
&lt;li>Limitierungen&lt;/li>
&lt;li>Komplexität einer Implementierung der zugehörigen Schätzer&lt;/li>
&lt;/ul>
&lt;p>4 Type von Systeme&lt;/p>
&lt;ul>
&lt;li>Wertediskrete Systeme&lt;/li>
&lt;li>Wertekontinuierliche lineare Systeme&lt;/li>
&lt;li>Wertekontinuierliche und schwach nichtlineare Systeme&lt;/li>
&lt;li>Allgemeine Systeme&lt;/li>
&lt;/ul>
&lt;h2 id="wann-kann-man-mit-1d-messungen-auch-auf-einen-3d-zustand-schließen-wie-sehen-dann-die-unsicherheits-ellipsen-uber-der-zeit-aus">Wann kann man mit 1D-Messungen auch auf einen 3D-Zustand schließen? Wie sehen dann die Unsicherheits-Ellipsen über der Zeit aus?&lt;/h2>
&lt;h2 id="definition">Definition&lt;/h2>
&lt;h3 id="induzierte-nichtlinearitat">Induzierte Nichtlinearität&lt;/h3>
&lt;h3 id="bedingte-unabhängigkeit">Bedingte Unabhängigkeit&lt;/h3>
&lt;p>Zwei Variable $A, B$ sind bedingt unabhängig, gegeben $C$ $\Leftrightarrow$&lt;/p>
$$
P(A, B | C) = P(A | C) P(B | C)
$$
&lt;p>Damit äquivalent sind die Formulierungen:
$$
P(A | B,C) = P(A | C) \qquad P(B | A,C) = P(B | C)
$$
&lt;/p>
&lt;h3 id="zustand">Zustand&lt;/h3>
&lt;p>(Script P19)&lt;/p>
&lt;p>The state of a dynamic system is defined as the smallest set of variables, the so called &lt;strong>state variables&lt;/strong>, that completely determine the behavior of the system for $t \geq t_0$ given their values at $t_0$ together with the input function for $t \geq t_0$.&lt;/p>
&lt;ul>
&lt;li>When modeling a system, the choice of state variables is not unique.&lt;/li>
&lt;li>State variables do not need be physically existent. They also do not need to be measurable.&lt;/li>
&lt;/ul>
&lt;blockquote>
&lt;p>Der Zustand eines dynamischen Systems ist definiert als die kleinste Menge von Variablen, den so genannten &lt;strong>Zustandsvariablen&lt;/strong>, die das Verhalten des Systems für $t \geq t_0$ vollständig bestimmen/beschreiben, wenn man ihre Werte bei $t_0$ zusammen mit der Eingangsfunktion für $t \geq t_0$ betrachtet.&lt;/p>
&lt;/blockquote>
&lt;h3 id="zustandsschätzung">Zustandsschätzung&lt;/h3>
&lt;p>Rekonstruktion des internen Zustands aus Messungen und Eingängen&lt;/p>
&lt;h3 id="komplexität-einer-rekursion">Komplexität einer Rekursion&lt;/h3>
&lt;h3 id="dichtefunktion-likelihood">Dichtefunktion, Likelihood&lt;/h3>
&lt;p>&lt;strong>Verteilungsfunktion&lt;/strong> oder &lt;strong>kumulative Wahrscheinlichkeitsdichte&lt;/strong> $F_{\boldsymbol{x}}(x)$ der Zufallsvariablen $\boldsymbol{x}$&lt;/p>
$$
F_{\boldsymbol{x}}: \mathbb{R} \rightarrow[0,1] \qquad F_{\boldsymbol{x}}(x):=\mathrm{P}(\boldsymbol{x} \leq x)
$$
&lt;p>Eigenschaften von $F_{\boldsymbol{x}}(x)$&lt;/p>
&lt;ul>
&lt;li>$\lim _{x \rightarrow-\infty} F_{\boldsymbol{x}}(x)=0$
&lt;/li>
&lt;li>$\lim _{x \rightarrow\infty} F_{\boldsymbol{x}}(x)=1$
&lt;/li>
&lt;li>monoton steigend und rechtsseitig stetig.&lt;/li>
&lt;/ul>
&lt;p>Bei stetiger Zufallsvariable:&lt;/p>
$$
F_{\boldsymbol{x}}(x)=\int_{-\infty}^{x} f_{\boldsymbol{x}}(u) \mathrm{d} u
$$
&lt;p>$f_{\boldsymbol{x}}(x)$ heißt &lt;strong>Dichte&lt;/strong> von $x$.&lt;/p>
&lt;p>&amp;ldquo;Dichte&amp;rdquo; einer diskreten Zufallsvariable:&lt;/p>
$$
f_{\boldsymbol{x}}(x)=\sum_{n=1}^{\infty} \mathrm{P}\left(\boldsymbol{x}=x_{n}\right) \delta\left(x-x_{n}\right)=\sum_{n=1}^{\infty} p_{n} \delta\left(x-x_{n}\right)
$$
&lt;h3 id="zufallsvariable">Zufallsvariable&lt;/h3>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb 1, A4, A5&lt;/span>
&lt;/div>
&lt;p>Eine &lt;strong>Zufallsvariable&lt;/strong> ist eine numerische Beschreibung des Ergebnisses eines Zufallsexperiments. Es handelt sich um eine Funktion, die ein Ergebnis $\omega$ aus einem Ergebnisraum $\Omega$ in den Raum $\mathbb{R}$ der reellen Zahlen abbildet&lt;/p>
$$
\boldsymbol{x}=\boldsymbol{x}(\omega): \Omega \rightarrow \mathbb{R}
$$
&lt;p>Zwei Typen&lt;/p>
&lt;ul>
&lt;li>&lt;strong>Diskret&lt;/strong>: Ergebnisse sind endlich oder höchstens abzählbar unendlich&lt;/li>
&lt;li>&lt;strong>Kontinuierlich&lt;/strong>: Ereignis- und Wertemenge ist überabzählbaren.&lt;/li>
&lt;/ul>
&lt;h4 id="momente">Momente&lt;/h4>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb 2, A1.1&lt;/span>
&lt;/div>
&lt;p>&lt;strong>Erwartungswert&lt;/strong> (Mittelwert, 1-te Moment) der Zufallsvariablen $\boldsymbol{x}$:&lt;/p>
$$
\mathrm{E}_{f_{\boldsymbol{x}}}\{\boldsymbol{x}\}=\hat{\boldsymbol{x}}=\mu_{\boldsymbol{x}}=\int_{-\infty}^{\infty} x f_{\boldsymbol{x}}(x) \mathrm{d} x
$$
&lt;p>&lt;strong>$k$-te Moment&lt;/strong> der Zufallsvariablen $\boldsymbol{x}$:
$$
\mathrm{E}_{f_{\boldsymbol{x}}}\left\{\boldsymbol{x}^{k}\right\}=\int_{-\infty}^{\infty} x^{k} f_{\boldsymbol{x}}(x) \mathrm{d} x
$$
&lt;/p>
&lt;p>&lt;strong>$k$-te zentrale Moment&lt;/strong> der Zufallsvariablen $\boldsymbol{x}$:&lt;/p>
$$
\mathrm{E}_{f_{\boldsymbol{x}}}\left\{\left(\boldsymbol{x}-\mathrm{E}_{f_{\boldsymbol{x}}}\{\boldsymbol{x}\}\right)^{k}\right\}=\int_{-\infty}^{\infty}\left(x-\mu_{\boldsymbol{x}}\right)^{k} f_{\boldsymbol{x}}(x) \mathrm{d} x
$$
&lt;p>Varianz (2-te zentral Moment) der Zufallsvariablen $\boldsymbol{x}$:&lt;/p>
$$
\mathrm{E}_{f_{\boldsymbol{x}}}\left\{\left(\boldsymbol{x}-\mathrm{E}_{f_{\boldsymbol{x}}}\{\boldsymbol{x}\}\right)^{2}\right\}=\int_{-\infty}^{\infty}\left(x-\mu_{\boldsymbol{x}}\right)^{2} f_{\boldsymbol{x}}(x) \mathrm{d} x
$$
&lt;ul>
&lt;li>$\sigma_{\boldsymbol{x}}$: Standardabweichung der Zufallsvariablen $\boldsymbol{x}$&lt;/li>
&lt;/ul>
&lt;h3 id="2-dim-zufallsvariable">2-dim. Zufallsvariable&lt;/h3>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb 2, A2.2&lt;/span>
&lt;/div>
&lt;p>$\underline{X}$ sei eine zweidimensionale Zufallsvariable mit der Dichte $f(\underline{X})=f_{\underline{X}}\left(x_{1}, x_{2}\right)$.&lt;/p>
&lt;p>&lt;strong>Randdichte&lt;/strong>&lt;/p>
$$
\begin{array}{l}
f_{X_{1}}\left(x_{1}\right)=\int_{-\infty}^{\infty} f_{\underline{X}}\left(x_{1}, x_{2}\right) \mathrm{d} x_{2} \\
f_{X_{2}}\left(x_{2}\right)=\int_{-\infty}^{\infty} f_{\underline{X}}\left(x_{1}, x_{2}\right) \mathrm{d} x_{1}
\end{array}
$$
&lt;p>&lt;strong>Bedingte Dichte&lt;/strong>&lt;/p>
&lt;p>Bedingte Dichte von $x_1$&lt;/p>
$$
f_{X_{1}}\left(x_{1} \mid X_{2}=x_{2}\right)=\frac{f_{\underline{X}}\left(x_{1}, x_{2}\right)}{f_{X_{2}}\left(x_{2}\right)}
$$
&lt;p>Bedingte Dichte von $x_2$&lt;/p>
$$
f_{X_{2}}\left(x_{2} \mid X_{1}=x_{1}\right)=\frac{f_{\underline{X}}\left(x_{1}, x_{2}\right)}{f_{X_{1}}\left(x_{1}\right)}
$$
&lt;h3 id="unabhängigkeit-und-unkorreliertheit-von-zufallsvariablen">Unabhängigkeit und Unkorreliertheit von Zufallsvariablen&lt;/h3>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb 2, A2.3&lt;/span>
&lt;/div>
&lt;p>$X, Y$ sind unabhängig $\Leftrightarrow$&lt;/p>
$$
f_{X, Y}(x, y)=f_{X}(x) \cdot f_{Y}(y)
$$
&lt;p>Damit gilt auch&lt;/p>
$$
f_{X}(x \mid Y=y)=f_{X}(x)
$$
&lt;p>Die &lt;strong>Kovarianz&lt;/strong> $\sigma_{X, Y}=\operatorname{Cov}_{\boldsymbol{f}_{X, Y}}\{X, Y\}$
von $X$ und $Y$:&lt;/p>
$$
\sigma_{X, Y}=\operatorname{Cov}_{f_{X, Y}}\{X, Y\}=\mathrm{E}\{(X-\mathrm{E}\{X\}) \cdot(Y-\mathrm{E}\{Y\})\}=\mathrm{E}\left\{\left(X-\mu_{x}\right) \cdot\left(Y-\mu_{y}\right)\right\}
$$
&lt;p>Der &lt;strong>Korrelationskoeffizient&lt;/strong> von $X$ und $Y$:&lt;/p>
$$
\rho_{X, Y}=\frac{\sigma_{X, Y}}{\sigma_{X} \cdot \sigma_{Y}} \in [-1, 1]
$$
&lt;ul>
&lt;li>$\left|\rho_{X, Y}\right|=1$: $X$ und $Y$ sind maximal ähnlich&lt;/li>
&lt;li>$\left|\rho_{X, Y}\right|=0$: $X$ und $Y$ sind komplett unähnlich (&lt;em>i.e.&lt;/em>, $X$ und $Y$ sind &lt;strong>unkorreliert&lt;/strong>)&lt;/li>
&lt;/ul>
&lt;p>Unabhängigkeit und Unkorreliertheit:&lt;/p>
$$
\text{Unabhängigkeit} \underset{\text{+ Normalverteilung}}{\rightleftharpoons} \text{Unkorreliertheit}
$$
&lt;h3 id="erwartungswert">Erwartungswert&lt;/h3>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">&lt;ul>
&lt;li>Üb 1, A7&lt;/li>
&lt;li>Üb 2, A3.4&lt;/li>
&lt;/ul>
&lt;/span>
&lt;/div>
&lt;p>Der &lt;strong>Erwartungswert&lt;/strong> kann interpretiert werden als Mittelwert aller möglichen Werte $x_n$, die eine (diskrete) Zufallsvariable $\boldsymbol{x}$ annehmen kann. Dabei werden die Werte entsprechend ihrer Auftretenswahrscheinlichkeit $p_n$ gewichtet.&lt;/p>
$$
\mathrm{E}\{\boldsymbol{x}\}=\sum_{n=1}^{N} x_{n} p_{n}
$$
&lt;p>Kontinuierlicher Fall:&lt;/p>
$$
\mathrm{E}_{f_\boldsymbol{x}}\{\boldsymbol{x}\} = \int_{-\infty}^{\infty}x f_\boldsymbol{x}(x) dx
$$
&lt;p>Erwartungswert für Funktionen einer Zufallsvariable:&lt;/p>
$$
\mathrm{E}_{f_{\boldsymbol{x}}}\{g(\boldsymbol{x})\}=\int_{-\infty}^{\infty} g(x) f_{\boldsymbol{x}}(x) \mathrm{d} x
$$
&lt;p>Recehenregeln:&lt;/p>
&lt;ul>
&lt;li>$\mathrm{E}_{f_{X}}\{a X+b\}=a \mathrm{E}_{f_{X}}\{X\}+b$
&lt;/li>
&lt;li>$a$ ist eine Konstante: $E(a)=a$
&lt;/li>
&lt;li>$E(X \pm Y)=E(X) \pm E(Y)$
&lt;/li>
&lt;li>$E(XY) = E(x) E(Y)$
, falls $x, Y$ unabhängig&lt;/li>
&lt;/ul>
&lt;h3 id="varianz">Varianz&lt;/h3>
$$
E_{f_X}\{(X - \mu_X)^2\} = \operatorname{Var}(X) = \sigma_X^2
$$
&lt;p>Rechenregeln:&lt;/p>
&lt;ul>
&lt;li>$\operatorname{Var}_{f_X}\{aX+b\} = a^2 \operatorname{Var}_{f_X}\{X\}$
&lt;/li>
&lt;li>$\operatorname{Var}_{f_{X}}\{X\}=\mathrm{E}_{f_{X}}\left\{X^{2}\right\}-\left(\mathrm{E}_{f_{X}}\{X\}\right)^{2}$
&lt;/li>
&lt;li>$a$ is eine Konstante
&lt;ul>
&lt;li>$\operatorname{Var}_{f_X}\{a\} = 0$&lt;/li>
&lt;li>$\operatorname{Var}_{f_X}\{a \pm X\} = \operatorname{Var}_{f_X}\{X\}$
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>$\operatorname{Var}\{X, Y\} = E\{XY\} - \mu_X \mu_Y $
&lt;/li>
&lt;/ul>
&lt;h3 id="kovarianzmatrix">Kovarianzmatrix&lt;/h3>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">&lt;ul>
&lt;li>Üb 2, A2.3&lt;/li>
&lt;li>Üb 4, A5&lt;/li>
&lt;/ul>
&lt;/span>
&lt;/div>
$$
\begin{array}{l}
\operatorname{Cov}_{f_{\underline{x}}}\{\underline{X}\}=\mathrm{E}_{f_{\underline{\underline{x}}}}\left\{(\underline{X}-\underline{\mu})(\underline{X}-\underline{\mu})^{\top}\right\}\\
\newline
=\left[\begin{array}{cccc}
\sigma_{X_{1}}^{2} &amp; \sigma_{X_1 X_2} &amp; \cdots &amp; \sigma_{X_1 X_N} \\
\sigma_{X_2 X_1} &amp; \sigma_{X_{2}}^{2} &amp; \cdots &amp; \sigma_{X_2 X_N} \\
\vdots &amp; \vdots &amp; \ddots &amp; \vdots \\
\sigma_{X_N X_1} &amp; \sigma_{X_N X_2} &amp; \cdots &amp; \sigma_{X_{N}}^{2}
\end{array}\right]
\newline
=\left[\begin{array}{cccc}
\sigma_{X_{1}}^{2} &amp; \rho_{X_{1}, X_{2}} \sigma_{X_{1}} \sigma_{X_{2}} &amp; \cdots &amp; \rho_{X_{1}, X_{N}} \sigma_{X_{1}} \sigma_{X_{N}} \\
\rho_{X_{2}, X_{1}} \sigma_{X_{2}} \sigma_{X_{1}} &amp; \sigma_{X_{2}}^{2} &amp; \cdots &amp; \rho_{X_{2}, X_{N}} \sigma_{X_{2}} \sigma_{X_{N}} \\
\vdots &amp; \vdots &amp; \ddots &amp; \vdots \\
\rho_{X_{N}, X_{1}} \sigma_{X_{N}} \sigma_{X_{1}} &amp; \rho_{X_{N}, X_{2}} \sigma_{X_{N}} \sigma_{X_{2}} &amp; \cdots &amp; \sigma_{X_{N}}^{2}
\end{array}\right]
\end{array}
$$
&lt;h3 id="positiv-definit-positiv-semidefinit">Positiv definit, positiv semidefinit&lt;/h3>
&lt;p>Eine beliebige (ggf. symmetrische bzw. hermitesche) $n \times n$-Matrix $A$ ist&lt;/p>
&lt;ul>
&lt;li>
&lt;p>positiv definit, falls&lt;/p>
$$
x^T A x > 0
$$
&lt;/li>
&lt;li>
&lt;p>positiv semidefinit, falls&lt;/p>
$$
x^T A x \geq 0
$$
&lt;/li>
&lt;/ul>
&lt;h3 id="weißes-rauschen">Weißes Rauschen&lt;/h3>
&lt;p>Uncertainties taken at different time steps are also independent&lt;/p>
&lt;h3 id="system-eigenschaften-dynamisch-statisch-linear-zeitinvariant">System-Eigenschaften: dynamisch, statisch, linear, zeitinvariant&lt;/h3>
&lt;p>&lt;strong>Statisch&lt;/strong>: Der aktuellen Ausgang $y_k$ ist abhängig von dem aktuellen Eingang $u_k$.&lt;/p>
&lt;p>&lt;strong>Dynamisch&lt;/strong>: Der aktuellen Ausgang $y_k$ ist abhängig von&lt;/p>
&lt;ul>
&lt;li>dem aktuellen Eingang $u_k$&lt;/li>
&lt;li>dem aktuellen Zustand $x_k$&lt;/li>
&lt;/ul>
&lt;p>Bei wertkontinuierlicher linearer Systeme:&lt;/p>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb 5, A1&lt;/span>
&lt;/div>
&lt;ul>
&lt;li>
&lt;p>&lt;strong>Linear&lt;/strong>&lt;/p>
$$
\mathcal{S}\left\{\sum_{i=1}^{N} c_{i} y_{\mathrm{e} i, n}\right\}=\sum_{i=1}^{N} c_{i} \mathcal{S}\left\{y_{\mathrm{e} i, n}\right\}
$$
&lt;p>(also höhste Exponent $\leq 1$)&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Zeitinvariant&lt;/strong>&lt;/p>
&lt;p>Das System antwortet auf ein zeitlich verschobenes Eingangssignal $y_{\mathrm{e}, n-n_{0}}$
mit dem entsprechend zeitlichverschobenen Ausgangssignal $y_{\mathrm{a}, n-n_{0}}$
&lt;/p>
$$
y_{\mathrm{a}, n}=\mathcal{S}\left\{y_{\mathrm{e}, n}\right\} \quad \Longrightarrow \quad y_{\mathrm{a}, n-n_{0}}=\mathcal{S}\left\{y_{\mathrm{e}, n-n_{0}}\right\}.
$$
&lt;p>(also unabhängig von dem Zeitindex $k$)&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Kausalität&lt;/strong>&lt;/p>
&lt;p>Ein zeitdiskretes System S heißt &lt;strong>kausal&lt;/strong>, wenn die Antwort NUR von &lt;em>gegenwärtigen&lt;/em> oder &lt;em>vergangenen&lt;/em>, NICHT jedoch von zukünftigen Werten des Eingangssignals abhängt.&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h3 id="dirac-funktion">Dirac Funktion&lt;/h3>
&lt;p>Definition:&lt;/p>
$$
\begin{aligned}
\delta(x)&amp;=0, \quad x \neq 0 \\
\int_{a}^b \delta(x) dx &amp;= 1 \quad a &lt; x &lt; b
\end{aligned}
$$
&lt;p>&lt;strong>Rechenregeln&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Verschiebung&lt;/p>
$$
\int_{a}^{b} f(x) \delta\left(x-x_{0}\right) \mathrm{d} x=f\left(x_{0}\right)
$$
&lt;/li>
&lt;li>
&lt;p>Symmetrie&lt;/p>
$$
\delta(x) = \delta(-x)
$$
&lt;/li>
&lt;li>
&lt;p>Skalierung&lt;/p>
$$
\int_{a}^{b} f(x) \delta(|k| x) \mathrm{d} x=\frac{1}{|k|} f(0)
$$
&lt;/li>
&lt;li>
&lt;p>Hintereinanderausführung&lt;/p>
$$
\int_{-\infty}^{\infty} f(x) \delta(g(x)) \mathrm{d} x=\sum_{i=1}^{n} \frac{f\left(x_{i}\right)}{\left|g^{\prime}\left(x_{i}\right)\right|}
$$
&lt;p>wobei $g(x_i) = 0$ und $g^\prime(x_i) \neq 0$.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Verkettung auflösen (super wichtig!!!)&lt;/p>
$$
\delta(g(x)) = \sum_i \frac{1}{g^\prime(x_i)} \delta(x - x_i)
$$
&lt;p>wobei $g(x_i) = 0$ und $g^\prime(x_i) \neq 0$.&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h3 id="dirac-mixture">Dirac Mixture&lt;/h3>
$$
f(x)=\sum_{i=1}^{L} w_{i} \delta(\underline{x}-\underline{\hat{x}}_i)
$$</description></item><item><title>Wertediskrete Systeme</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/wertediskrete_sys/</link><pubDate>Sat, 20 Aug 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/wertediskrete_sys/</guid><description>&lt;h2 id="wonham-filter">Wonham Filter&lt;/h2>
&lt;p>Zustandschätzung für wertediskrete Systeme: &lt;strong>Wonham Filter&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Prädiktion&lt;/p>
$$
\underline{\xi}_{k}^{p}=\mathbf{A}^{\top} \underline{\xi}_{k-1}^{e}
$$
&lt;/li>
&lt;li>
&lt;p>Filterung&lt;/p>
$$
\underline{\xi}_{k}^{e} \overset{y_k = m}{=} \frac{\mathbf{B}(:, m) \odot \underline{\xi}_{k}^{p}}{\mathbf{B}(:, m)^\top \cdot \underline{\xi}_{k}^{p}}
$$
&lt;/li>
&lt;/ul>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb 4, A2&lt;/span>
&lt;/div>
&lt;p>Herleitung&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Prädiktion $P(x_k \mid y_{0:m}, u_{0:k-1})$
für $k > m$&lt;/p>
&lt;ol>
&lt;li>
&lt;p>nach $x_{k-1}$ marginalisieren&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Bayes einsetzen&lt;/p>
$$
P(a, b \mid c) = P(a \mid b, c) \cdot P(b \mid c) \qquad (\ast)
$$
&lt;/li>
&lt;li>
&lt;p>Markov Eigenschaft verwenden&lt;/p>
&lt;/li>
&lt;/ol>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-08-22%2010.14.29.png" alt="截屏2022-08-22 10.14.29" style="zoom:67%;" />
&lt;/li>
&lt;li>
&lt;p>Filterung: $P\left(x_{k} \mid y_{1: k}, u_{0: k-1}\right)$
&lt;/p>
&lt;ol>
&lt;li>
$P\left(x_{k} \mid y_{1: k}, u_{0: k-1}\right) = P(x_{k} \mid y_k, y_{1: k-1}, u_{0: k-1})$
&lt;/li>
&lt;li>
&lt;p>Bayes einsetzen&lt;/p>
$$
P(b \mid a, c) \cdot P(a \mid c)=P(a \mid b, c) \cdot P(b \mid c) \quad (\triangle)
$$
&lt;/li>
&lt;li>
&lt;p>Schreibe in Form $\frac{\text{Likelihood} \cdot \text{Prädiktion}}{\text{Normalisierungskonstant}}$
&lt;/p>
$$
P\left(x_{k} \mid y_{1: k}, u_{0: k-1}\right) = \frac{\overbrace{P\left(y_{k} \mid x_{k}\right)}^{\text{Likelihood}} \cdot \overbrace{P\left(x_{k} \mid y_{1: k-1}, u_{0: k-1}\right)}^{\text{Einschritt-Prädiktion}}}{\underbrace{P\left(y_{k} \mid y_{1: k-1}, u_{0: k-1}\right)}_{\text{Normalisierungskonstant}}}
$$
&lt;ul>
&lt;li>
&lt;p>Likelihood: $P\left(y_{k} \mid x_{k}\right) = \mathbf{B}(x_k, y_k)$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Prädiktion erhalten wir in Prädiktionsschritt&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Normalisierungskonstant&lt;/p>
&lt;ol>
&lt;li>
&lt;p>Marginalisierung nach $x_k$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Bayes einsetzen&lt;/p>
$$
P(a, b \mid c) = P(a \mid b, c) \cdot P(b \mid c) \qquad (\ast)
$$
&lt;/li>
&lt;/ol>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ol>
&lt;/li>
&lt;/ul>
&lt;h2 id="komplexitätsproblem-bei-der-diskretisierung-eines-allgemeinen-systems">Komplexitätsproblem bei der Diskretisierung eines allgemeinen Systems&lt;/h2>
&lt;p>Riesiger Speicherbedarf von Wahrscheinlichkeitsvektor und Transitionsmatrix&lt;/p></description></item><item><title>Wertekontinuierliche lineare Systeme</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/wertekont_lin_sys/</link><pubDate>Mon, 22 Aug 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/wertekont_lin_sys/</guid><description>&lt;h2 id="kalman-filter">Kalman Filter&lt;/h2>
&lt;p>&lt;strong>Prädiktion&lt;/strong>&lt;/p>
$$
\underline{\hat{x}}_k^p = \mathbf{A}_{k-1}\underline{\hat{x}}_{k-1}^e + \mathbf{B}_{k-1} \underline{\hat{u}}_{k-1}
$$
$$
\mathbf{C}_k^p = \mathbf{A}_{k-1} \mathbf{C}_{k-1}^e A_{k-1}^\top + \mathbf{B}_{k-1} \mathbf{C}_{k-1}^w \mathbf{B}_{k-1}^\top
$$
&lt;p>&lt;strong>Filterung&lt;/strong>&lt;/p>
$$
\mathbf{K}_k = \mathbf{C}_k^p \mathbf{H}_k^\top (\mathbf{C}_k^v + \mathbf{H}_k \mathbf{C}_k^p \mathbf{H}_k ^\top)^{-1}
\tag{Kalman Gain}
$$
$$
\underline{\hat{x}}_k^e = (\mathbf{I} - \mathbf{K}_k \mathbf{H}_k) \underline{\hat{x}}_k^p + \mathbf{K}_k \underline{\hat{y}}_k = \underline{\hat{x}}_k^p + \mathbf{K}_k(\underline{\hat{y}}_k - \mathbf{H}_k \underline{\hat{x}}_k^p)
$$
$$
\mathbf{C}_k^e = (\mathbf{I} - \mathbf{K}_k\mathbf{H}_k)\mathbf{C}_k^p = \mathbf{C}_k^p - \mathbf{C}_k^p \mathbf{H}_k^\top (\mathbf{C}_k^v + \mathbf{H}_k \mathbf{C}_k^p \mathbf{H}_k ^\top)^{-1}\mathbf{H}_k \mathbf{C}_k^p
$$
&lt;h2 id="kalman-filter-vektoriell-herleiten">Kalman Filter (vektoriell) herleiten&lt;/h2>
&lt;h3 id="prädiktion">Prädiktion&lt;/h3>
&lt;p>Systemabbildung&lt;/p>
$$
\underline{x}_{k+1}=\mathbf{A}_{k} \cdot \underline{x}_{k}+\mathbf{B}_{k} \cdot \underbrace{\left(\underline{\tilde{u}}_{k}+\underline{w}_{k}\right)}_{\underline{u_k}}
$$
&lt;p>Schritte&lt;/p>
&lt;ol>
&lt;li>
&lt;p>Berechnung des Erwartungswerts für $k+1$&lt;/p>
$$
E\left\{\underline{x}_{k+1}\right\}=\mathbf{A}_{k} \cdot \underline{\hat{x}}_{k|1: m}+\mathbf{B}_{k} \tilde{\underline{u}}_{k} \qquad (+)
$$
&lt;/li>
&lt;li>
&lt;p>Berechnung der Kovarianzmatrix $C_{k+1|1:m}^x$
mit der Annahme, dass Zustand und Systemrauschen unkorreliert sind&lt;/p>
$$
\begin{aligned}
\underline{x}_{k+1} &amp;=\mathbf{A}_{k} \underline{x}_{k}+\mathbf{B}_{k} \underline{u}_{k} \\
&amp;=\left[\begin{array}{ll}
\mathbf{A}_{k} &amp; \mathbf{B}_{k}
\end{array}\right]\left[\begin{array}{c}
\underline{x}_{k} \\
\underline{u}_{k}
\end{array}\right]
\end{aligned}
$$
&lt;ol>
&lt;li>
&lt;p>Berechne $\operatorname{Cov}\left\{\left[\begin{array}{c}
\underline{x}_{k} \\
\underline{\tilde{u}}_{k}
\end{array}\right]\right\}$
&lt;/p>
$$
\begin{aligned}
\underline{x}_{k+1}-\hat{\underline{x}}_{k+1} &amp;=\left[\begin{array}{ll}
\mathbf{A}_{k} &amp; \mathbf{B}_{k}
\end{array}\right]\left[\begin{array}{c}
\underline{x}_{k}-\hat{\underline{x}}_{k} \\
\underline{u}_{k}-\underline{\hat{u}}_{k}
\end{array}\right] \\
&amp;=\left[\begin{array}{ll}
\mathbf{A}_{k} &amp; \mathbf{B}_{k}
\end{array}\right]\left[\begin{array}{c}
\underline{x}_{k}-\underline{\hat{x}}_{k} \\
\underline{w}_{k}
\end{array}\right]
\end{aligned}
$$
$$
\begin{aligned}
\operatorname{Cov}\left\{\left[\begin{array}{c}
\underline{x}_{k} \\
\underline{\tilde{u}}_{k}
\end{array}\right]\right\} &amp;=E\left\{\left[\begin{array}{c}
\underline{x}_{k}-\underline{\hat{x}}_{k} \\
\underline{w}_{k}
\end{array}\right]\left[\left(\underline{x}_{k}-\underline{\hat{x}}_{k}\right)^{\top} \underline{w}_{k}^{\top}\right]\right\} \\
&amp;=\left[\begin{array}{cc}
C_{k \mid 1: m}^{x} &amp; 0 \\
0 &amp; C_{k}^{w}
\end{array}\right]
\end{aligned}
$$
&lt;/li>
&lt;li>
&lt;p>$\operatorname{Cov}\left\{\left[\begin{array}{c}
\underline{x}_{k} \\
\underline{\tilde{u}}_{k}
\end{array}\right]\right\}$
in Berechnung von $C_{k+1|1:m}^x$
einsetzen&lt;/p>
$$
\begin{aligned}
\mathbf{C}_{k+1 \mid 1 : m}^{x} &amp;=E\left\{\left(\underline{x}_{k+1}-\hat{x}_{k+1}\right)\left(x_{k+1} - \hat{\underline{x}}_{k+1}\right)^\top\right\} \\
&amp;=\left[\begin{array}{ll}
\mathbf{A}_{k} &amp; \mathbf{B}_{k}
\end{array}\right] \cdot E\left\{\left[\begin{array}{c}
\underline{x}_{k}-\hat{\underline{x}}_{k} \\
\underline{w}_{k}
\end{array}\right]\left[\begin{array}{ll}
\underline{x}_{k}-\hat{\underline{x}}_{k} &amp; \underline{w}_{k}
\end{array}\right]^\top\right\} \cdot\left[\begin{array}{l}
\mathbf{A}_{k}^{\top} \\
\mathbf{B}_{k}^{\top}
\end{array}\right] \\\\
&amp;=\left[\begin{array}{ll}
\mathbf{A}_{k} &amp; \mathbf{B}_{k}
\end{array}\right] \cdot\left[\begin{array}{cc}
\mathbf{C}_{k \mid 1:m} &amp; 0 \\
0 &amp; \mathbf{C}_{k}^{w}
\end{array}\right] \cdot\left[\begin{array}{l}
\mathbf{A}_{k}^{\top} \\
\mathbf{B}_{k}^{\top}
\end{array}\right] \\
&amp;=\mathbf{A}_{k} \cdot \mathbf{C}_{k \mid 1: m}^{x} \mathbf{A}_{k}^{\top}+\mathbf{B}_{k} \mathbf{C}_{k}^{w} \mathbf{B}_{k}^{\top} \qquad(++)
\end{aligned}
$$
&lt;/li>
&lt;/ol>
&lt;/li>
&lt;/ol>
&lt;h3 id="filterung">Filterung&lt;/h3>
&lt;p>Messabbildung&lt;/p>
$$
\underline{y}_{k}=\mathbf{H}_{k} \cdot \underline{x}_{k}+\underline{v}_{k}
$$
&lt;p>Schritte&lt;/p>
&lt;ol>
&lt;li>
&lt;p>Schreibe $\underline{x}_k^e$ als lineare Kombination von $\underline{x}_k^p$ und $\underline{y}_k$&lt;/p>
$$
\underline{x}_{k}^e=\mathbf{K}_{k}^{(1)} \underline{x}_{k}^p+\mathbf{K}_{k}^{(2)} \underline{y}_{k}
$$
&lt;/li>
&lt;li>
&lt;p>Aus BLUE Filter ergibt sich&lt;/p>
$$
E\{\underline{x}_{k}^e\}=E\{\mathbf{K}_{k}^{(1)} \underline{x}_{k}^p+\mathbf{K}_{k}^{(2)} \underline{y}_{k}\}
$$
&lt;p>$\Rightarrow$&lt;/p>
$$
\begin{aligned}
\mathbf{K}_{k}^{(1)} &amp;= \mathbf{I} - \mathbf{K}_{k}\mathbf{H}_{k} \\
\mathbf{K}_{k}^{(2)} &amp;= \mathbf{K}_{k}
\end{aligned}
$$
&lt;p>und&lt;/p>
$$
\underline{x}_{k}^e=(\mathbf{I} - \mathbf{K}_{k}\mathbf{H}_{k}) \underline{x}_{k}^p+\mathbf{K}_{k} \underline{y}_{k}
$$
&lt;/li>
&lt;li>
&lt;p>Berechne Kovarianzmatrix $\mathbf{C}_k^e$&lt;/p>
$$
\mathbf{C}_{k}^{e}\left(\mathbf{K}_{k}\right)=\operatorname{Cov}\{\underline{x}_k^e - \underline{x}\} = \left(\mathbf{I}-\mathbf{K}_{k} \mathbf{H}_{k}\right) \mathbf{C}_{k}^{p}\left(\mathbf{I}-\mathbf{K}_{k} \mathbf{H}_{k}\right)^{\top}+\mathbf{K}_{k} C_{k}^{v} \mathbf{K}_{k}^{\top}
$$
&lt;p>Wir suche $\mathbf{K}_{k}$ so, dass der resultierende Schätzer MINIMAL kovarianz aufweist.&lt;/p>
&lt;ol>
&lt;li>
&lt;p>Auf skalares Gütemaß zurückzuführen&lt;/p>
$$
P(\mathbf{K}_{k}) = \underline{e}^\top \left( \left(\mathbf{I}-\mathbf{K}_{k} \mathbf{H}_{k}\right) \mathbf{C}_{k}^{p}\left(\mathbf{I}-\mathbf{K}_{k} \mathbf{H}_{k}\right)^{\top}+\mathbf{K}_{k} C_{k}^{v} \mathbf{K}_{k}^{\top}\right) \underline{e}
$$
&lt;/li>
&lt;li>
$\frac{\partial}{\partial \mathbf{K}_{k}} P(\mathbf{K}_{k})\overset{!}{=} 0 \Rightarrow$
$$
\mathbf{K}_k = \mathbf{C}_k^p \mathbf{H}_k^\top (\mathbf{C}_k^v + \mathbf{H}_k \mathbf{C}_k^p \mathbf{H}_k^\top)^{-1}
$$
&lt;/li>
&lt;/ol>
&lt;/li>
&lt;li>
&lt;p>$\mathbf{K}_k$
in $\underline{x}_{k}^e$
und $\mathbf{C}_{k}^{e}$
einsetzen&lt;/p>
&lt;/li>
&lt;/ol>
&lt;h2 id="ergebnis-von-gauß-mal-gauß">Ergebnis von &amp;ldquo;Gauß mal Gauß&amp;rdquo;&lt;/h2>
&lt;h2 id="drei-gütemaße-für-die-größe-einer-kovarianzmatrix">Drei Gütemaße für die „Größe“ einer Kovarianzmatrix&lt;/h2>
&lt;p>Mögliche Gütemaße für generelles Vergleichen von Kovarianzmatrizen:&lt;/p>
$$
f: \mathbb{R}^{n \times n} \to \mathbb{R}^1
$$
&lt;p>Funktion, die einer Kovarianzmatrix einen Skalar zuordnen kann, denn man kann nur Skalare direkt miteinander vergleichen.&lt;/p>
&lt;p>Drei Gütemaße&lt;/p>
&lt;ul>
&lt;li>Projektion mit Einheitsvektor&lt;/li>
&lt;li>Spur&lt;/li>
&lt;li>Determinante&lt;/li>
&lt;/ul>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-08-22%2012.31.16.png" alt="截屏2022-08-22 12.31.16" style="zoom:67%;" /></description></item><item><title>Schwach nichtlineare wertekontinuierliche Systeme</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/schwach_nichtlin_wertkont_sys/</link><pubDate>Wed, 24 Aug 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/schwach_nichtlin_wertkont_sys/</guid><description>&lt;h2 id="lineare-vs-nichtlineare-systeme">Lineare Vs. Nichtlineare Systeme&lt;/h2>
&lt;style type="text/css">
.tg {border-collapse:collapse;border-spacing:0;}
.tg td{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;
overflow:hidden;padding:10px 5px;word-break:normal;}
.tg th{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;
font-weight:normal;overflow:hidden;padding:10px 5px;word-break:normal;}
.tg .tg-c3ow{border-color:inherit;text-align:center;vertical-align:top}
.tg .tg-7btt{border-color:inherit;font-weight:bold;text-align:center;vertical-align:top}
&lt;/style>
&lt;table class="tg">
&lt;thead>
&lt;tr>
&lt;th class="tg-c3ow">&lt;/th>
&lt;th class="tg-7btt">Linear&lt;/th>
&lt;th class="tg-7btt">Nichtlinear&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td class="tg-7btt">Systemabbildung&lt;/td>
&lt;td class="tg-c3ow">$\underline{x}_{k+1} = \mathbf{A}_k \underline{x}_k + \mathbf{B}_k (\underline{u}_k + \underline{w}_k)$&lt;/td>
&lt;td class="tg-c3ow">$\underline{x}_{k+1} = \underline{a}_k(\underline{x}_k, \underline{u}_k, \underline{w}_k)$&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td class="tg-7btt">Messabbildung&lt;/td>
&lt;td class="tg-c3ow">$\underline{y}_{k} = \mathbf{H}_k \underline{x}_k + \underline{v}_k$&lt;/td>
&lt;td class="tg-c3ow">$\underline{y}_k = \underline{h}_k (\underline{x}_k, \underline{v}_k)$&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;h2 id="extended-kalman-filter-ekf">Extended Kalman Filter (EKF)&lt;/h2>
&lt;p>💡 Idee: Linearisierung mit Tylorentwicklung 1. Ordnung um die beste verfügbare Schätzung, um den (linear) Kalman-Filter zu vewenden.&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Systemabbildung&lt;/p>
$$
\underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right) \approx \underbrace{\underline{a}_{k}\left(\underline{\overline{x}}_k, \underline{\overline{u}}_k\right)}_{\text{Nomialteil}}+\underbrace{\mathbf{A}_{k}\left(\underline{x}_k-\underline{\overline{x}}_k\right)+\mathbf{B}_{k}\left(\underline{u}_{k}-\underline{\overline{u}}_k\right)}_{\text{Differentialteil}}
$$
&lt;/li>
&lt;li>
&lt;p>Messabbildung&lt;/p>
$$
\underline{h}_{k}\left(\underline{x}_{k}, \underline{v}_{k}\right) \approx \underbrace{\underline{h}_{k}\left(\underline{\bar{x}}_{k}, \underline{\bar{v}}_{k}\right)}_{\text{Nomialteil}}+ \underbrace{\mathbf{H}_{k} \cdot \left(\underline{x}_{k}-\underline{\bar{x}}_{k}\right)+\mathbf{L}_{k} \cdot\left(\underline{v}_{k}-\underline{\bar{v}}_{k}\right)}_{\text{Differentialteil}}
$$
&lt;/li>
&lt;/ul>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb 7, A2&lt;/span>
&lt;/div>
&lt;p>Prädiktion&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Berechnung Erwartungswert über nichtlineare Funktion&lt;/p>
$$
\underline{\hat{x}}_{k+1}^{p}=\underline{a}_{k}\left(\underline{\hat{x}}_{k}^{e}, \hat{\underline{u}}_{k}\right)
$$
&lt;/li>
&lt;li>
&lt;p>Berechnung Kovarianzmatrix über die Linearisierung&lt;/p>
$$
\mathbf{C}_{k+1}^{p} \approx \mathbf{A}_{k} \mathbf{C}_{k}^{e} \mathbf{A}_{k}^{\top}+\mathbf{C}_{k}^{w^{\prime}}=\mathbf{A}_{k} \mathbf{C}_{k}^{e} \mathbf{A}_{k}^{\top}+\mathbf{B}_{k} \mathbf{C}_{k}^{w} \mathbf{B}_{k}^{\top}
$$
&lt;p>mit&lt;/p>
$$
\mathbf{A}_k = \left.\frac{\partial \underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right)}{\partial \underline{x}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k-1}^{e}, \underline{u}_{k}=\hat{\underline{u}}_{k}} \qquad
\mathbf{B}_k = \left.\frac{\partial \underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right)}{\partial \underline{u}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k-1}^{e}, \underline{u}_{k}=\hat{\underline{u}}_{k}}
$$
&lt;/li>
&lt;/ul>
&lt;p>Filterung&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Linearisierung um $\underline{x}_k$ und $\underline{v}_k$&lt;/p>
$$
\mathbf{H}_{k}=\left.\frac{\partial \underline{h}_{k}\left(\underline{x}_{k}, \underline{v}_{k}\right)}{\partial \underline{x}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k}^{p}, \underline{v}_{k}=\underline{\hat{v}}_{k}} \qquad
\mathbf{L}_{k}=\left.\frac{\partial \underline{h}_{k}\left(\underline{x}_{k}, \underline{v}_{k}\right)}{\partial \underline{v}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k}^{p}, \underline{v}_{k}=\underline{\hat{v}}_{k}}
$$
&lt;/li>
&lt;li>
&lt;p>KF Filterung schriit mit Linearisierung&lt;/p>
$$
\begin{aligned}
\mathbf{K}_{k}&amp;=\mathbf{C}_{k}^{p} \mathbf{H}_{k}^{\top}\left(\mathbf{L}_{k} \mathbf{C}_{k}^{v} \mathbf{L}_{k}^{\top}+\mathbf{H}_{k} \mathbf{C}_{k}^{p} \mathbf{H}_{k}^{T}\right)^{-1} \\\\
\hat{\underline{x}}_{k}^{e}&amp;=\hat{\underline{x}}_{k}^{p}+\mathbf{K}_{k}\left[\hat{\underline{y}}_{k}-\underline{h}_{k}\left(\hat{\underline{x}}_{k}^{p}, \hat{\underline{v}}_{k}\right)\right] \overset{\underline{v} \text{ mittelwertfrei}}{=} \hat{\underline{x}}_{k}^{p}+\mathbf{K}_{k}\left[\hat{\underline{y}}_{k}-\underline{h}_{k}\left(\hat{\underline{x}}_{k}^{p}, 0\right)\right]\\\\
\mathbf{C}_{k}^{e}&amp;=\mathbf{C}_{k}^{p}-\mathbf{K}_{k} \mathbf{H}_{k} \mathbf{C}_{k}^{p} = (\mathbf{I} - \mathbf{K}_{k} \mathbf{H}_{k})\mathbf{C}_{k}^{p}
\end{aligned}
$$
&lt;/li>
&lt;/ul>
&lt;h2 id="linear-kf-vs-ekf">(Linear) KF vs. EKF&lt;/h2>
&lt;style type="text/css">
.tg {border-collapse:collapse;border-spacing:0;}
.tg td{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;
overflow:hidden;padding:10px 5px;word-break:normal;}
.tg th{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;
font-weight:normal;overflow:hidden;padding:10px 5px;word-break:normal;}
.tg .tg-1wig{font-weight:bold;text-align:left;vertical-align:top}
.tg .tg-0pky{border-color:inherit;text-align:left;vertical-align:top}
.tg .tg-fymr{border-color:inherit;font-weight:bold;text-align:left;vertical-align:top}
.tg .tg-0lax{text-align:left;vertical-align:top}
&lt;/style>
&lt;table class="tg">
&lt;thead>
&lt;tr>
&lt;th class="tg-0pky">&lt;/th>
&lt;th class="tg-fymr">(Linear) KF&lt;/th>
&lt;th class="tg-fymr">EKF&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td class="tg-fymr">Prädiktion&lt;/td>
&lt;td class="tg-0pky">$\underline{\hat{x}}_k^p = \mathbf{A}_{k-1}\underline{\hat{x}}_{k-1}^e + \mathbf{B}_{k-1} \underline{\hat{u}}_{k-1}$&lt;br>$\mathbf{C}_k^p = \mathbf{A}_{k-1} \mathbf{C}_{k-1}^e A_{k-1}^\top + \mathbf{B}_{k-1} \mathbf{C}_{k-1}^w \mathbf{B}_{k-1}^\top$&lt;/td>
&lt;td class="tg-0pky">$\underline{\hat{x}}_{k+1}^{p}=\underline{a}_{k}\left(\underline{\hat{x}}_{k}^{e}, \hat{\underline{u}}_{k}\right)$&lt;br>$\mathbf{C}_{k+1}^{p} \approx \mathbf{A}_{k} \mathbf{C}_{k}^{e} \mathbf{A}_{k}^{\top}+\mathbf{C}_{k}^{w^{\prime}}=\mathbf{A}_{k} \mathbf{C}_{k}^{e} \mathbf{A}_{k}^{\top}+\mathbf{B}_{k} \mathbf{C}_{k}^{w} \mathbf{B}_{k}^{\top}$&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td class="tg-fymr">Filterung&lt;/td>
&lt;td class="tg-0pky">$\mathbf{K}_k = \mathbf{C}_k^p \mathbf{H}_k^\top (\mathbf{C}_k^v + \mathbf{H}_k \mathbf{C}_k^p \mathbf{H}_k ^\top)^{-1}$&lt;br>$\underline{\hat{x}}_k^e = \underline{\hat{x}}_k^p + \mathbf{K}_k(\underline{\hat{y}}_k - \mathbf{H}_k \underline{\hat{x}}_k^p)$&lt;br>$\mathbf{C}_k^e = (\mathbf{I} - \mathbf{K}_k\mathbf{H}_k)\mathbf{C}_k^p$&lt;/td>
&lt;td class="tg-0pky">$\begin{aligned}&lt;br> \mathbf{K}_{k}&amp;amp;=\mathbf{C}_{k}^{p} \mathbf{H}_{k}^{\top}\left(\mathbf{L}_{k} \mathbf{C}_{k}^{v} \mathbf{L}_{k}^{\top}+\mathbf{H}_{k} \mathbf{C}_{k}^{p} \mathbf{H}_{k}^{T}\right)^{-1} \\&lt;br> \hat{\underline{x}}_{k}^{e}&amp;amp;=\hat{\underline{x}}_{k}^{p}+\mathbf{K}_{k}\left[\hat{\underline{y}}_{k}-\underline{h}_{k}\left(\hat{\underline{x}}_{k}^{p}, \hat{\underline{v}}_{k}\right)\right] \\&lt;br> \mathbf{C}_{k}^{e}&amp;amp;=\mathbf{C}_{k}^{p}-\mathbf{K}_{k} \mathbf{H}_{k} \mathbf{C}_{k}^{p} = (\mathbf{I} - \mathbf{K}_{k} \mathbf{H}_{k})\mathbf{C}_{k}^{p}&lt;br> \end{aligned}$&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td class="tg-1wig">Auxiliary&lt;/td>
&lt;td class="tg-0lax">&lt;/td>
&lt;td class="tg-0lax">$\mathbf{A}_k = \left.\frac{\partial \underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right)}{\partial \underline{x}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k-1}^{e}, \underline{u}_{k}=\hat{\underline{u}}_{k}}$&lt;br>$\mathbf{B}_k = \left.\frac{\partial \underline{a}_{k}\left(\underline{x}_{k}, \underline{u}_{k}\right)}{\partial \underline{u}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k-1}^{e}, \underline{u}_{k}=\hat{\underline{u}}_{k}}$&lt;br>$\mathbf{H}_{k}=\left.\frac{\partial \underline{h}_{k}\left(\underline{x}_{k}, \underline{v}_{k}\right)}{\partial \underline{x}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k}^{p}, \underline{v}_{k}=\underline{\hat{v}}_{k}}$&lt;br>$\mathbf{L}_{k}=\left.\frac{\partial \underline{h}_{k}\left(\underline{x}_{k}, \underline{v}_{k}\right)}{\partial \underline{v}_{k}^{\top}}\right|_{\underline{x}_{k}=\underline{\hat{x}}_{k}^{p}, \underline{v}_{k}=\underline{\hat{v}}_{k}}$&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;h3 id="probleme">Probleme&lt;/h3>
&lt;ul>
&lt;li>
&lt;p>Berechnung der posteriore Verteilung nur gut für “schwache” Nichtlinearität&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Linearisierung nur um einen Punkt&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Linearisiertes System ist i.A. zeitvariant, auch wenn originalsytstem zeitinvariant ist, da Linearisierung vom Schätzwert abhängt.&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h2 id="kalman-filter-in-probabilistischer-form">Kalman Filter in probabilistischer Form&lt;/h2>
&lt;p>&lt;strong>Filterung&lt;/strong>&lt;/p>
&lt;p>(Annahme: $\underline{x}_k$
und $\underline{y}_k$
sind gemeinsam Gaußverteilt)&lt;/p>
&lt;ol>
&lt;li>
&lt;p>Define $\underline{z}:=\left[\begin{array}{l}
\underline{x} \\
\underline{y}
\end{array}\right]$
&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Mittelwert und Varianz von $\underline{z}$ berechnen.&lt;/p>
$$
\underline{\mu}_z=\left[\begin{array}{l}
\underline{\mu}_x \\
\underline{\mu}_y
\end{array}\right]=\frac{1}{L}\sum_{i=1}^L\left[\begin{array}{l}
\underline{x}_i \\
\underline{y}_i
\end{array}\right], \quad \mathbf{C}_{z} = \frac{1}{L}\sum_{i=1}^L(\underline{z}_i - \underline{\mu}_z)(\underline{z}_i - \underline{\mu}_z)^\top = \left[\begin{array}{ll}
\mathbf{C}_{x x} &amp; \mathbf{C}_{x y} \\
\mathbf{C}_{y x} &amp; \mathbf{C}_{y y}
\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>Filterung in probabilistischer Form mit Messung $\hat{\underline{y}}$
&lt;/p>
$$
\begin{aligned}
\underline{\hat{x}}_k^e &amp;= \underline{x}_k^p + \mathbf{C}_{xy} \mathbf{C}_{yy}^{-1} (\underline{\hat{y}} - \underline{\mu}_y) \\
\mathbf{C}_k^e &amp;= \mathbf{C}_k^p - \mathbf{C}_{xy} \mathbf{C}_{yy}^{-1} \mathbf{C}_{yx}
\end{aligned}
$$
&lt;/li>
&lt;/ol>
&lt;h3 id="unscented-kalman-filter-ukf">Unscented Kalman Filter (UKF)&lt;/h3>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb 7, A3&lt;/span>
&lt;/div>
&lt;p>Unscented Prinzipien&lt;/p>
&lt;ul>
&lt;li>Nichtlineare Transformation eines einzelnen Punktes ist einfach&lt;/li>
&lt;li>Es ist einfach, eine Punktwolke zu finden, deren Stichprobenmittelwert und -varianz mit den Momenten der gegebene Dichte übereinstimmen.&lt;/li>
&lt;li>Es ist einfach, Mittelwert und Varianz einer Punktwolke zu bestimmen&lt;/li>
&lt;/ul>
&lt;p>Bsp: additives Rauschen&lt;/p>
$$
\begin{aligned}
\underline{x}_{k+1} &amp;= \underline{a}_{k}(\underline{x}_{k}) + \underline{w}_{k} \\
\underline{y}_{k} &amp;= \underline{h}_{k}(\underline{x}_{k}) + \underline{v}_{k}
\end{aligned}
$$
&lt;p>&lt;strong>Prädiktion&lt;/strong>&lt;/p>
&lt;ol>
&lt;li>
&lt;p>Samples/Particles/Punkte propagieren&lt;/p>
$$
\underline{x}_{k}^{p, i} = \underline{a}_{k-1}(\underline{x}_{k-1}^{e, i})
$$
&lt;/li>
&lt;li>
&lt;p>Mittelwert und Varianz basierend auf Samples berechnen&lt;/p>
$$
\begin{aligned}
\underline{\hat{x}}_{k}^p &amp;= \frac{1}{L} \sum_{i=1}^L \underline{x}_{k}^{p, i} \\
\mathbf{C}_k^p &amp;= \frac{1}{L} \sum_{i=1}^L (\underline{x}_{k}^{p, i} - \underline{\hat{x}}_{k}^p) (\underline{x}_{k}^{p, i} - \underline{\hat{x}}_{k}^p)^\top + \mathbf{C}_k^w
\end{aligned}
$$
&lt;/li>
&lt;/ol>
&lt;p>&lt;strong>Fitlerung&lt;/strong>&lt;/p>
&lt;ol start="0">
&lt;li>
&lt;p>Sampling:&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Für prioren Schätzwert: $2N$ btw. $2N+1$ Samples auf Hauptachsen für Dimension $N$&lt;/p>
&lt;blockquote>
&lt;p>Bsp: Im skalaren Fall ($N=1$), 2 Samples:&lt;/p>
$$
> x_1 = \mu_p + \sigma_p \quad x_2 = \mu_p - \sigma_p
> $$
&lt;/blockquote>
&lt;/li>
&lt;li>
&lt;p>Ähnlich für Samples vom Mess-Rauschen&lt;/p>
&lt;blockquote>
&lt;p>Bsp: Im skalaren Fall ($N=1$), 2 Samples:&lt;/p>
$$
> v_1 = \mu_v + \sigma_v \quad v_2 = \mu_v - \sigma_v
> $$
&lt;/blockquote>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Punkte Propagation&lt;/p>
$$
\underline{y}_{k}^{p, i} = \underline{h}_{k}(\underline{x}_{k}^{p, i})
$$
&lt;p>bzw.&lt;/p>
$$
\underline{y}_{k}^{i, j} = \underline{h}_{k}(\underline{x}_{k}^{p, i}, \underline{v}_k^j)
$$
&lt;/li>
&lt;li>
&lt;p>Verbundraum $\underline{z}=\left[\begin{array}{l}
\underline{x} \\
\underline{y}
\end{array}\right]$
erstellen (Annahme: $\underline{x}_k$
und $\underline{y}_k$
sind gemeinsam Gaußverteilt).
Mittelwert und Varianz von $\underline{z}$ berechnen.&lt;/p>
$$
\underline{\mu}_z=\left[\begin{array}{l}
\underline{\mu}_x \\
\underline{\mu}_y
\end{array}\right]=\frac{1}{L}\sum_{i=1}^L\left[\begin{array}{l}
\underline{x}_i \\
\underline{y}_i
\end{array}\right], \quad \mathbf{C}_{z} = \frac{1}{L}\sum_{i=1}^L(\underline{z}_i - \underline{\mu}_z)(\underline{z}_i - \underline{\mu}_z)^\top = \left[\begin{array}{ll}
\mathbf{C}_{x x} &amp; \mathbf{C}_{x y} \\
\mathbf{C}_{y x} &amp; \mathbf{C}_{y y}
\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>Filterung in probabilistischer Form mit Messung $\hat{\underline{y}}$
&lt;/p>
$$
\begin{aligned}
\underline{\hat{x}}_k^e &amp;= \underline{x}_k^p + \mathbf{C}_{xy} \mathbf{C}_{yy}^{-1} (\underline{\hat{y}} - \underline{\mu}_y) \\
\mathbf{C}_k^e &amp;= \mathbf{C}_k^p - \mathbf{C}_{xy} \mathbf{C}_{yy}^{-1} \mathbf{C}_{yx}
\end{aligned}
$$
&lt;/li>
&lt;/ol>
&lt;h4 id="sampling">Sampling&lt;/h4>
&lt;p>Samples nur auf Hauptachsen: Insgesamt $2N$ btw. $2N+1$ ($N$: #Dimensionen)&lt;/p>
&lt;h4 id="vorteil-von-ukf-gegen-ekf">Vorteil von UKF gegen EKF&lt;/h4>
&lt;ul>
&lt;li>UKF reduziert möglicherweise den Linearisierungsfehler des EKF&lt;/li>
&lt;li>Man braucht die Jacobi-Matrizen nicht zu berechnen 👏&lt;/li>
&lt;/ul>
&lt;h3 id="analytische-momente">Analytische Momente&lt;/h3>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb 7, A4&lt;/span>
&lt;/div>
&lt;ol>
&lt;li>
&lt;p>Verbundraum $\underline{z}$ erstellen&lt;/p>
$$
z := \left[\begin{array}{l}
x \\
y
\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>Mittelwert von $\underline{z}$ berechnen (mithilfe von höheren Momente der Gaußdichte)&lt;/p>
$$
E\{\underline{z}\}=\left[\begin{array}{c}
\hat{x}_{p} \\
E\{h(x)\}
\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>Differenz zwichen $h(x)$ und $E\\{h(x)\\}$ berechnen&lt;/p>
$$
\bar{h}(x)=h(x)-E\{h(x)\}
$$
&lt;/li>
&lt;li>
&lt;p>$\operatorname{Cov}\{\underline{z}\}$ berechnen&lt;/p>
$$
\operatorname{Cov}\{\underline{z}\}=\left[\begin{array}{ll}
\mathbf{C}_{x x} &amp; \mathbf{C}_{x y} \\
\mathbf{C}_{y x} &amp; \mathbf{C}_{y y}
\end{array}\right]=\left[\begin{array}{cc}
\sigma_{p}^{2} &amp; E\left\{\left(x-\hat{x}_{p}\right) \bar{h}(x)\right\} \\
E\left\{\left(x-\hat{x}_{p}\right) \bar{h}(x)\right\} &amp; E\left\{\overline{h}^{2}(x)\right\}+\sigma_{v}^{2}
\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>Filterung in probabilistischer Form.&lt;/p>
$$
\begin{aligned}
\underline{\hat{x}}_k^e &amp;= \underline{x}_k^p + \mathbf{C}_{xy} \mathbf{C}_{yy}^{-1} (\underline{\hat{y}} - \underline{\mu}_y) \\
\mathbf{C}_k^e &amp;= \mathbf{C}_k^p - \mathbf{C}_{xy} \mathbf{C}_{yy}^{-1} \mathbf{C}_{yx}
\end{aligned}
$$
&lt;/li>
&lt;/ol>
&lt;h2 id="ensemble-kalman-filter-enkf">Ensemble Kalman Filter (EnKF)&lt;/h2>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb 6, A4 (f)&lt;/span>
&lt;/div>
&lt;p>💡 Repräsentiere den unsicheren Schätzwert nun per „Streuungsbreite“ einer Punktwolke.&lt;/p>
&lt;p>Als „unsicheren Zustand“ verwende $L$ $N$-dim. Vektoren als &lt;strong>Samples&lt;/strong>&lt;/p>
$$
\mathcal{X}_{k}=[\underbrace{\underline{x}_{k, 1}}_{\mathbb{R}^N}, \underline{x}_{k, 2}, \ldots, \underline{x}_{k, L}] \in \mathbb{R}^{N \times L}, \quad \mathcal{W}_{k}=\left[\underline{w}_{k, 1}, \underline{w}_{k, 2}, \ldots, \underline{w}_{k, L}\right] \in \mathbb{R}^{N \times L}
$$
&lt;p>wobei die Samples als Spalten einer Matrix kompakt aufgefasst werden können.&lt;/p>
&lt;p>&lt;strong>Prädiktion&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Nichtlinear&lt;/p>
$$
\mathcal{X}_{k}^p = \underline{a}_{k-1}(\mathcal{X}_{k-1}^e, \underline{u}_{k-1}, \mathcal{W}_{k-1})
$$
&lt;/li>
&lt;li>
&lt;p>Linear&lt;/p>
$$
\mathcal{X}_{k}^p = \mathbf{A}_{k-1}\mathcal{X}_{k-1}^e + \mathbf{B}_{k-1}(\underline{u}_{k-1} + \mathcal{W}_{k-1})
$$
&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>Filterung&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Durchführung der Filterschritt NUR mit Samples&lt;/li>
&lt;li>Vermeidung der Verwendung der Update-Formeln für Kovarianzmatrix (Reine Representation der Unsicherheiten durch Samples)&lt;/li>
&lt;/ul>
&lt;p>Schritte&lt;/p>
&lt;ol>
&lt;li>
&lt;p>„Prädizierte“ Mess-Samples berechnen&lt;/p>
&lt;ul>
&lt;li>
&lt;p>linear&lt;/p>
$$
\mathcal{Y}_k = \mathbf{H}_k \mathcal{X}_{k}^p + \mathcal{V}_{k}
$$
&lt;/li>
&lt;li>
&lt;p>nichtlinear&lt;/p>
$$
\mathcal{Y}_k = \underline{h}_k (\mathcal{X}_{k}^p, \mathcal{V}_{k})
$$
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Kalman Gain berechnen&lt;/p>
$$
\begin{aligned}
\mathbf{C}_{x y} &amp;=\frac{1}{L} \sum_{i=1}^{L} \underline{x}_{k, i}^{\mathrm{p}} \cdot \underline{y}_{k, i}^{\top} \\
&amp;=\frac{1}{L} \mathcal{X}_{k}^{\mathrm{p}} \cdot \mathcal{Y}_{k}^{\top} \\\\
\mathbf{C}_{y y} &amp;=\frac{1}{L} \sum_{i=1}^{L} \underline{y}_{k, i} \cdot \underline{y}_{k, i}^{\top} \\
&amp;=\frac{1}{L} \mathcal{Y}_{k} \cdot \mathcal{Y}_{k}^{\top} \\\\
\mathbf{K} &amp;=\mathbf{C}_{x y} \cdot \mathbf{C}_{y y}^{-1}
\end{aligned}
$$
&lt;/li>
&lt;li>
&lt;p>Filterschritt mit der tatsächlichen Messung $\underline{\hat{y}}_k$&lt;/p>
$$
\mathcal{X}_{k}^e = \mathcal{X}_{k}^p + \mathbf{K} (\underline{\hat{y}}_k \cdot \underline{\mathbb{1}}^\top - \mathcal{Y}_k)
$$
&lt;/li>
&lt;/ol></description></item><item><title>Allgemeine Systeme</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/allg_sys/</link><pubDate>Thu, 25 Aug 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/allg_sys/</guid><description>&lt;h2 id="generatives-und-probabilistisches-modell">Generatives und probabilistisches Modell&lt;/h2>
&lt;p>Für Herleitung ist es super wichtig, die Eigenschaft der Dirac&amp;rsquo;schen Funktion anzuwenden:&lt;/p>
$$
\delta (g(x)) = \sum_{i=1}^N \frac{1}{|g^\prime(x_i)|}\delta (x - x_i)
$$
&lt;ul>
&lt;li>$g(x_i) = 0$&lt;/li>
&lt;li>$g^\prime(x_i) \neq 0$&lt;/li>
&lt;/ul>
&lt;h3 id="mit-additivem-rauschen">Mit Additivem Rauschen&lt;/h3>
&lt;p>Generatives Modell:&lt;/p>
$$
z = a(x) + v \quad v \sim f_v(v)
$$
&lt;p>Probabilistisches Modell:&lt;/p>
$$
f(z \mid x) = f_v(z - a(x))
$$
&lt;h3 id="mit-multiplikativem-rauschen">Mit Multiplikativem Rauschen&lt;/h3>
&lt;p>Generatives Modell:&lt;/p>
$$
z = x \cdot v \quad v \sim f_v(v)
$$
&lt;p>Probabilistisches Modell:&lt;/p>
$$
f(z \mid x) = \frac{1}{|x|}f_v(\frac{z}{x})
$$
&lt;h3 id="warum-lässt-sich-das-nur-bei-bestimmten-modellen-exakt-lösen">Warum lässt sich das nur bei bestimmten Modellen exakt lösen?&lt;/h3>
&lt;p>&amp;ldquo;For the general generative model, where the noise enters the system in an arbitrary fashion.&amp;rdquo; (Script P149)&lt;/p>
&lt;h2 id="abstraktion">Abstraktion&lt;/h2>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-08-27%2010.48.03.png" alt="截屏2022-08-27 10.48.03" style="zoom: 33%;" />
&lt;h2 id="prädiktion-vorwärtsinferenz">Prädiktion (Vorwärtsinferenz)&lt;/h2>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb9 A2, A3&lt;/span>
&lt;/div>
&lt;ul>
&lt;li>Gegeben
&lt;ul>
&lt;li>$f_a(a)$&lt;/li>
&lt;li>$g(a)$&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>Gesucht: $f_b(b)$&lt;/li>
&lt;/ul>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/allg_sys-Vorwaertsinferenz.drawio.png" alt="allg_sys-Vorwaertsinferenz.drawio" style="zoom: 67%;" />
&lt;h3 id="chapman-kolmogorov-gleichung">Chapman-Kolmogorov-Gleichung&lt;/h3>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb A10.1&lt;/span>
&lt;/div>
$$
f_{k+1}^{p}\left(\underline{x}_{k+1}\right)=\int_{\mathbb{R}^{N}} \underbrace{f\left(\underline{x}_{k+1} \mid \underline{x}_{k}\right)}_{\text{Prädiktionsdichte}} f_{k}^{e}\left(\underline{x}_{k}\right) \mathrm{d} \underline{x}_{k}
$$
&lt;p>Herleitung ist ganz simple: Verbunddichte + Marginalisierung&lt;/p>
$$
f\left(x_{k+1}\right)= \int_{\mathbb{R}^{N}} f\left(\underline{x}_{k+1}, \underline{x}_{k}\right) d \underline{x}_{k}= \int_{\mathbb{R}^{N}} f\left(\underline{x}_{k+1} \mid \underline{x}_{k}\right) \cdot f\left(\underline{x}_{k}\right) d \underline{x}_{k}
$$
&lt;p>‼️ &lt;span style="color: Red">Problem: &lt;strong>Parameterintegral&lt;/strong>&lt;/span>&lt;/p>
&lt;ul>
&lt;li>&lt;span style="color: Red">Integrand hängt von $\underline{x}_{k+1}$ ab (lässt sich i.Allg nicht herausziehen)&lt;/span>&lt;/li>
&lt;li>&lt;span style="color: Red">Erfordert Lösung des Integrals für alle $\underline{x}_{k+1}$&lt;/span>&lt;/li>
&lt;li>&lt;span style="color: Red">Nur möglich für analytische Lösung&lt;/span>&lt;/li>
&lt;/ul>
&lt;h3 id="prädiktionsschritte">Prädiktionsschritte&lt;/h3>
&lt;ol>
&lt;li>
&lt;p>Umforme $f(b \mid a) = \delta(b - g(a))$ mit&lt;/p>
$$
\delta (g(x)) = \sum_{i=1}^N \frac{1}{|g^\prime(x_i)|}\delta (x - x_i)
$$
&lt;p>wobei&lt;/p>
&lt;ul>
&lt;li>$g(x_i) = 0$ (also $x_i$ sind Nullstellen, $i = 1, 2, \dots, N$)&lt;/li>
&lt;li>$g^\prime(x_i) \neq 0$&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Berechne $f_b(b)$ mithilfe von &lt;strong>Chapman-Kolmogorov-Gleichung&lt;/strong>&lt;/p>
$$
f(b) = \int f(b \mid a) f(a) da
$$
&lt;p>und setze die Unformung von $f(b \mid a)$ von Schritt 1 ein. Dann kriege die gesuchte Dichtefunktion $f_b(b)$ in Abhängigkeit von $f_a(a)$.&lt;/p>
&lt;/li>
&lt;/ol>
&lt;h3 id="vereinfachte-prädiktion">Vereinfachte Prädiktion&lt;/h3>
&lt;p>Für&lt;/p>
$$
\underline{z} = \underline{a}(\underline{x}, \underline{w})
$$
&lt;p>ist die Transitionsdichte $f(\underline{z} | \underline{x})$ durch Mixture approximierbar&lt;/p>
$$
f(\underline{z} | \underline{x}) = \sum_{i \in \mathbb{Z}} f_i^z(\underline{z}) \cdot f_i^x(\underline{x})
$$
&lt;p>wobei $f_i^z(\underline{z})$
und $f_i^x(\underline{x})$
beliebige Dichte (z.B Gaußdichte) sein können.&lt;/p>
&lt;p>Schreibweise mit $\underline{x}_{k+1}$
und $\underline{x}_{k}$
:&lt;/p>
$$
f\left(\underline{x}_{k+1} \mid \underline{x}_k\right)=\sum_{i=1}^L w_k^{(i)} f_{k+1}^{(i)}\left(\underline{x}_{k+1}\right) f_k^{(i)}\left(\underline{x}_k\right)
$$
&lt;h2 id="filterung">Filterung&lt;/h2>
&lt;h3 id="rückwartsinferenz">Rückwartsinferenz&lt;/h3>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/allg_sys-Rueckwaertsinferenz.drawio.png" alt="allg_sys-Rueckwaertsinferenz.drawio" style="zoom:67%;" />
&lt;p>Bei Rückwartsinferenz ist es wichtig, Formel von Bayes anwuwenden.&lt;/p>
$$
f(a \mid b) = \frac{f(a, b)}{f(b)} = \frac{f(b \mid a) f(a)}{f(b)} = \underbrace{\frac{1}{f(b)}}_{\text{Normalizationskonstant}} \cdot \underbrace{f(b \mid a)}_{\text{Likelihood}} \cdot \underbrace{f(a)}_{\text{Vorwissen}}
$$
&lt;h3 id="konkrete-messung">Konkrete Messung&lt;/h3>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb9 A2, A3&lt;/span>
&lt;/div>
&lt;ol>
&lt;li>
&lt;p>Umforme $f_b(b \mid a) = \delta(b - g(a))$ mit&lt;/p>
$$
\delta (g(x)) = \sum_{i=1}^N \frac{1}{|g^\prime(x_i)|}\delta (x - x_i)
$$
&lt;p>wobei&lt;/p>
&lt;ul>
&lt;li>$g(x_i) = 0$ (also $x_i$ sind Nullstellen, $i = 1, 2, \dots, N$)&lt;/li>
&lt;li>$g^\prime(x_i) \neq 0$&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Berechne $f_b(b)$&lt;/p>
$$
f_b(b) = \int f_{a, b}(a, b) da = \int f_{b}(b \mid a) f_a(a) da
$$
&lt;p>mit Einsetzen der Unformung von $f(b \mid a)$ von Schritt 1 ein&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Berechne $f_a(a \mid \hat{b})$ mithilfe von Bayes Regeln&lt;/p>
$$
f_a(a \mid \hat{b}) = \frac{f_a(\hat{b} \mid a) f_a(a)}{f_b(\hat{b})} = \frac{\overbrace{\delta(\hat{b} - g(a))}^{\text{Schritt 1}} f_a(a)}{\underbrace{f_b(\hat{b})}_{\text{Schritt 2}}}
$$
&lt;/li>
&lt;/ol>
&lt;h3 id="unsichere-messung">Unsichere Messung&lt;/h3>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb A9.4&lt;/span>
&lt;/div>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/allg_sys-Rueckwaertsinferenz_dichte.drawio.png" alt="allg_sys-Rueckwaertsinferenz_dichte.drawio" style="zoom:67%;" />
&lt;p>&lt;strong>Schritte&lt;/strong>:&lt;/p>
&lt;ol start="0">
&lt;li>Erweitere das System um eine zusätzliche stochastische Abbildung und einen festen Ausgang $\hat{z}$&lt;/li>
&lt;/ol>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-08-08 16.51.24.png" alt="截屏2022-08-08 16.51.24" style="zoom: 50%;" />
&lt;ol>
&lt;li>
&lt;p>Bestimme $f(\hat{z} \mid y)$&lt;/p>
$$
\begin{aligned}
f(\hat{z} \mid y) &amp;= \frac{f(y \mid \hat{z})f(\hat{z})}{f(y)} \\\\
&amp;= \frac{f(y \mid \hat{z})f(\hat{z})}{\int f(y, x) dx} \\\\
&amp;= \frac{f(y \mid \hat{z})f(\hat{z})}{\int f(y|x)f(x) dx} \\\\
&amp;= \frac{f(y \mid \hat{z})f(\hat{z})}{\int \delta(y - g(x)) f(x) dx} \\\\
\end{aligned}
$$
&lt;p>Und setze die Umformung von $\delta(y - g(x))$&lt;/p>
$$
\delta (g(x)) = \sum_{i=1}^N \frac{1}{|g^\prime(x_i)|}\delta (x - x_i)
$$
&lt;ul>
&lt;li>$g(x_i) = 0$ (also $x_i$ sind Nullstellen, $i = 1, 2, \dots, N$)&lt;/li>
&lt;li>$g^\prime(x_i) \neq 0$&lt;/li>
&lt;/ul>
&lt;p>ein.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Berechung der Rückwärtsinferenz $f(x \mid \hat{z})$&lt;/p>
$$
\begin{aligned}
f(x \mid \hat{z}) &amp;=\frac{1}{f\left(\hat{z}\right)} \cdot f(x, \hat{z}) \quad \mid \text{Marginalisierung nach } y\\
&amp;=\frac{1}{f(\hat{z})} \int f(x, y, \hat{z}) d y \\
&amp;=\frac{1}{f(\hat{z})} \int f(\hat{z} \mid y, x) \cdot f(y , x) d y \quad \mid \hat{z}, x \text{ sind unabhängig}\\
&amp;=\frac{1}{f(\hat{z})} \int f(\hat{z} \mid y) \cdot f(y \mid x) \cdot f(x) d y \\
&amp;=\frac{1}{f(\hat{z})} \int \underbrace{f(\hat{z} \mid y)}_{\text{Berechnet in Schritt 1}} \cdot \underbrace{f(y \mid x)}_{\text{Systemmodell}} \cdot f(x) d y
\end{aligned}
$$
&lt;/li>
&lt;/ol>
&lt;h3 id="schwierigkeit-vom-filterschritt">Schwierigkeit vom Filterschritt&lt;/h3>
&lt;ol>
&lt;li>Type der Dichte zur Beschreibung der Schätzung ändert sich&lt;/li>
&lt;li>Dichte wrid mit jedem Schritt komplexer&lt;/li>
&lt;/ol>
&lt;h3 id="vereinfachte-filterung">Vereinfachte Filterung&lt;/h3>
&lt;p>Vereinfachung der Likelihood $f(\underline{y} \mid \underline{x})$
durch Mixture (Analog zu vereinfachter Prädiktion)&lt;/p>
$$
f(\underline{y} \mid \underline{x}) = \sum_{i \in \mathbb{Z}} f_i^y(\underline{y}) f_i^x(\underline{x})
$$</description></item><item><title>Sampling</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/sampling/</link><pubDate>Sun, 28 Aug 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/sampling/</guid><description>&lt;h2 id="reapproximation-von-dichten">Reapproximation von Dichten&lt;/h2>
&lt;p>Approximate original continuous density with discrete Dirac Mixture&lt;/p>
$$
f(\underline{x})=\sum_{i=1}^{L} w_{i} \cdot \delta\left(\underline{x}-\underline{\hat{x}}_{i}\right)
$$
&lt;ul>
&lt;li>Weights $w_{i}>0, \displaystyle \sum_{i=1}^{L} w_{i}=1$&lt;/li>
&lt;li>$\underline{x}_i$: locations / samples&lt;/li>
&lt;/ul>
&lt;p>In univariate case (1D), compare &lt;strong>cumulative distribution functions (CDFs)&lt;/strong> $\tilde{F}(x), F(x)$ using &lt;strong>Cramér–von Mises distance&lt;/strong>:&lt;/p>
$$
D(\underline{\hat{x}})=\int_{\mathbb{R}}(\tilde{F}(x)-F\left(x, \underline{\hat{x}})\right)^{2} \mathrm{~d} x
$$
&lt;p>$F(x, \underline{\hat{x}})$
: Dirac mixture cumulative distribution&lt;/p>
$$
F(x, \underline{\hat{x}})=\sum_{i=1}^{L} w_{i} \mathrm{H}\left(x-\hat{x}_{i}\right) \text { with } \mathrm{H}(x)=\int_{-\infty}^{x} \delta(t) \mathrm{d} t= \begin{cases}0 &amp; x&lt;0 \\ \frac{1}{2} &amp; x=0 \\ 1 &amp; x>0\end{cases}
$$
&lt;p>with the Dirac position&lt;/p>
$$
\underline{\hat{x}}=\left[\hat{x}_{1}, \hat{x}_{2}, \ldots, \hat{x}_{L}\right]^{\top}
$$
&lt;p>We minimize the Cramér–von Mises distance $D(\underline{\hat{x}})$
with Newton&amp;rsquo;s method.&lt;/p>
&lt;h3 id="generalization-of-concept-of-cdf">Generalization of concept of CDF&lt;/h3>
&lt;h4 id="localized-cumulative-distribution-lcd">Localized Cumulative Distribution (LCD)&lt;/h4>
$$
F(\underline{m}, b)=\int_{\mathbb{R}^{N}} f(\underline{x}) K(\underline{x}-\underline{m}, b) \mathrm{d} \underline{x}
$$
&lt;ul>
&lt;li>
&lt;p>$K(\cdot, \cdot)$: Kernel&lt;/p>
$$
K(\underline{x}-\underline{m}, b)=\prod_{k=1}^{N} \exp \left(-\frac{1}{2} \frac{\left(x_{k}-m_{k}\right)^{2}}{b^{2}}\right)
$$
&lt;/li>
&lt;li>
&lt;p>$\underline{m}$: Kernel location&lt;/p>
&lt;/li>
&lt;li>
&lt;p>$\underline{b}$: Kernel width&lt;/p>
&lt;/li>
&lt;/ul>
&lt;p>Properties of LCD:&lt;/p>
&lt;ul>
&lt;li>Symmetric&lt;/li>
&lt;li>Unique&lt;/li>
&lt;li>Multivariate&lt;/li>
&lt;/ul>
&lt;p>Generalized Cramér–von Mises Distance (GCvD)&lt;/p>
$$
D=\int_{\mathbb{R}_{+}} w(b) \int_{\mathbb{R}^{N}}(\tilde{F}(\underline{m}, b)-F(\underline{m}, b))^{2} \mathrm{~d} \underline{m} \mathrm{~d} b
$$
&lt;ul>
&lt;li>$\tilde{F}(\underline{m}, b)$: LCD of continuous density&lt;/li>
&lt;li>$F(\underline{m}, b)$: LCD of Dirac mixture&lt;/li>
&lt;/ul>
&lt;p>Minimization of GCvD: Quasi-Newton method (L-BFGS)&lt;/p>
&lt;h4 id="projected-cumulative-distribution-pcd">Projected Cumulative Distribution (PCD)&lt;/h4>
&lt;p>Use reapproximation methods for univariate case in multivariate case.&lt;/p>
&lt;p>&lt;strong>Radon Transform&lt;/strong>&lt;/p>
&lt;p>Represent general $N$-dimensional probability density functions via the set of all one-dimensional projections&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Linear projection of random vector $\underline{\boldsymbol{x}} \in \mathbb{R}^{N}$ to to scalar random variable $\boldsymbol{r} \in \mathbb{R}$ onto line described by unit vector $\underline{u} \in \mathbb{S}^{N-1}$&lt;/p>
$$
\boldsymbol{r} = \underline{u}^\top \underline{\boldsymbol{x}}
$$
&lt;/li>
&lt;li>
&lt;p>Given probability density function $f(\underline{x})$ of random vector $\underline{\boldsymbol{x}}$, density $f_r(r \mid \underline{u})$ is Radon transfrom of $f(\underline{x})$ for all $\underline{u} \in \mathbb{S}^{N-1}$&lt;/p>
$$
f_{r}(r \mid \underline{u})=\int_{\mathbb{R}^{N}} f(\underline{t}) \delta\left(r-\underline{u}^{\top} \underline{t}\right) \mathrm{d} \underline{t}
$$
&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>Representing PDFs by &lt;em>all&lt;/em> one-dimensional projections&lt;/strong>&lt;/p>
&lt;ol>
&lt;li>
&lt;p>Represent the two densities $\tilde{f}(\underline{x})$ and $f(\underline{x})$ by their Radon transforms $\tilde{f}(r \mid \underline{u})$ and $f(r \mid u)$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Compare the sets of projections $\tilde{f}(r \mid \underline{u})$ and $f(r \mid u)$ for every $\underline{u} \in \mathbb{S}^{N-1}$. Resulting distance is&lt;/p>
$$
D_{1}(\underline{u})=D(\tilde{f}(r \mid \underline{u}), f(r \mid \underline{u}))
$$
&lt;/li>
&lt;li>
&lt;p>Integrate these one-dimensional distance measures $D_1(\underline{u})$ over all unit vectors $\underline{u} \in \mathbb{S}^{N-1}$ to get the multivariate distance measure $D(\tilde{f}(\underline{x}), f(\underline{x}))$. Minimize via univariate Newton updates.&lt;/p>
&lt;/li>
&lt;/ol>
&lt;h2 id="navies-partikel-filter">Navies Partikel Filter&lt;/h2>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Üb A13.2&lt;/span>
&lt;/div>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-08-14%2017.37.55.png" alt="截屏2022-08-14 17.37.55" style="zoom: 33%;" />
&lt;h3 id="prädiktion">Prädiktion&lt;/h3>
&lt;p>💡Update Sample Positionen. Gewichte bleiben gleich.&lt;/p>
&lt;ol>
&lt;li>
&lt;p>$f_{k}^{e}\left(\underline{x}_{k}\right)$
durch Dirac Mixture darstellen&lt;/p>
$$
f_{k}^{e}\left(\underline{x}_{k}\right)=\sum_{i=1}^{L} w_{k}^{e, i} \cdot \delta\left(\underline{x}_{k}-\underline{\hat{x}}_{k}^{e, i}\right) \qquad w_{k}^{e, i}=\frac{1}{L}, i \in\left\{1, \ldots, L\right\}
$$
&lt;/li>
&lt;li>
&lt;p>Ziehe Samples zum Zeitpunkt $k+1$&lt;/p>
$$
\underline{\hat{x}}_{k+1}^{p, i} \sim f\left(\underline{x}_{k+1} \mid \hat{x}_{k}^{e, i}\right)
$$
&lt;p>Gewichte bleiben gleich&lt;/p>
$$
w_{k+1}^{p, i} = w_{k}^{e, i}
$$
&lt;/li>
&lt;li>
&lt;p>$f_{k+1}^{p}\left(\underline{x}_{k}\right)$
durch Dirac Mixture darstellen&lt;/p>
$$
f_{k+1}^{p}\left(\underline{x}_{k+1}\right)=\sum_{i=1}^{L} w_{k+1}^{p, i} \delta\left(\underline{x}_{k+1}-\underline{\hat{x}}_{k+1}^{p, i}\right)
$$
&lt;/li>
&lt;/ol>
&lt;h3 id="filterung">Filterung&lt;/h3>
&lt;p>💡Update Gewichte. Sample Positionen bleiben gleich.&lt;/p>
$$
\begin{aligned}
f_{k}^{e}\left(\underline{x}_{k}\right) &amp;\propto f\left(\underline{y}_{k} \mid \underline{x}_{k}\right) \cdot f_{k}^{p}\left(\underline{x}_{k}\right)\\
&amp;=f\left(\underline{y}_{k} \mid \underline{x}_{k}\right) \cdot \sum_{i=1}^{L} w_{k}^{p, i} \cdot \delta\left(\underline{x}_{k}-\underline{\hat{x}}_{k}^{p, i}\right)\\
&amp;=\sum_{i=1}^{L} \underbrace{w_{k}^{p, i} \cdot f\left(\underline{y}_{k} \mid \hat{\underline{x}}_{k}^{p, i}\right)}_{\propto w_{k}^{e, i}} \cdot \delta(\underline{x}_{k}-\underbrace{\underline{\hat{x}}_{k}^{p, i}}_{\underline{\hat{x}}_{k}^{e, i}})
\end{aligned}
$$
&lt;ol>
&lt;li>
&lt;p>Positionen bleiben gleich&lt;/p>
$$
\underline{\hat{x}}_{k}^{e, i} = \underline{\hat{x}}_{k}^{p, i}
$$
&lt;/li>
&lt;li>
&lt;p>Gewichte adaptieren&lt;/p>
$$
w_{k}^{e, i} \propto w_{k}^{p, i} \cdot f\left(\underline{y}_{k} \mid \hat{\underline{x}}_{k}^{p, i}\right)
$$
&lt;p>und Normalisieren&lt;/p>
$$
w_{k}^{e, i}:=\frac{w_{k}^{e, i}}{\displaystyle \sum_{i} w_{k}^{e,i}}
$$
&lt;/li>
&lt;/ol>
&lt;h3 id="problem">Problem&lt;/h3>
&lt;ul>
&lt;li>
&lt;p>Varianz der Samples erhöht sich mit Filterschritten&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Partikel sterben aus $\rightarrow$ Degenerierung des Filters&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Aussterben schneller, je genauer die Messung, da Likelihood schmaler (Paradox!)&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h2 id="resampling">Resampling&lt;/h2>
&lt;ul>
&lt;li>
&lt;p>Approximation der gewichteter Samples durch ungewichtete&lt;/p>
$$
f_{k}^{e}\left(\underline{x}_{k}\right)=\sum_{i=1}^{L} w_{k}^{e, i} \cdot \delta\left(\underline{x}_{k}-\underline{\hat{x}}_{k}^{e, i}\right) \approx \sum_{i=1}^{L} \frac{1}{L} \delta\left(\underline{x}_{k}-\underline{\hat{x}}_{k}^{e, i}\right)
$$
&lt;/li>
&lt;li>
&lt;p>Gegeben: $L$ Partikel mit Gewichten $w_i$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Gesucht: $L$ Partikel mit Geweichte $\frac{1}{L}$ (gleichgewichtet)&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h2 id="sequential-importance-sampling">Sequential Importance Sampling&lt;/h2>
&lt;ol start="0">
&lt;li>
&lt;p>$f_{k}^{e}\left(\underline{x}_{k}\right)=f\left(\underline{x}_{k} \mid \underline{y}_{1: k}\right)$
auf $\underline{x}_{1: k-1}$
marginalisieren&lt;/p>
$$
f_{k}^{e}\left(\underline{x}_{k}\right)=f\left(\underline{x}_{k} \mid \underline{y}_{1: k}\right)=\int_{\mathbb{R}^{N}} \cdots \int_{\mathbb{R}^{N}} f\left(\underline{x}_{1: k} \mid \underline{y}_{1 : k}\right) d \underline{x}_{1: k-1}
$$
&lt;/li>
&lt;li>
&lt;p>Importance Sampling für $f(\underline{x}_k, \underline{x}_{k-1} \mid \underline{y}_{1:k})$
&lt;/p>
$$
f_{k}^{e}\left(\underline{x}_{k}\right) = \int_{\mathbb{R}^{N}} \cdots \int_{\mathbb{R}^{N}} \underbrace{\frac{f\left(\underline{x}_{1: k} \mid \underline{y}_{1 : k}\right)}{p\left(\underline{x}_{1: k} \mid \underline{y}_{1 : k}\right)}}_{=: w_k^{e, i}} p\left(\underline{x}_{1: k} \mid \underline{y}_{1 : k}\right) d \underline{x}_{1: k-1}
$$
&lt;/li>
&lt;li>
&lt;p>$\frac{f\left(\underline{x}_{1: k} \mid \underline{y}_{1 : k}\right)}{p\left(\underline{x}_{1: k} \mid \underline{y}_{1 : k}\right)}$
umschreiben&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Zähler&lt;/p>
$$
\begin{aligned}
f\left(\underline{x}_{1: k} \mid \underline{y}_{1: k}\right) &amp;\propto f\left(\underline{y}_{k} \mid \underline{x}_{1: k}, \underline{y}_{1: k - 1}\right) \cdot f\left(\underline{x}_{1: k} \mid \underline{y}_{1: k-1}\right)\\
&amp;=f\left(\underline{y}_{k} \mid \underline{x}_{k}\right) \cdot f\left(\underline{x}_{k} \mid \underline{x}_{1:k-1}, \underline{y}_{1:k-1}\right) \cdot f\left(\underline{x}_{1:k-1} \mid \underline{y}_{1: k-1}\right)\\
&amp;=f\left(\underline{y}_{k} \mid \underline{x}_{k}\right) \cdot f\left(\underline{x}_{k} \mid \underline{x}_{k-1}\right) \cdot f\left(\underline{x}_{1: k-1} \mid \underline{y}_{1: k \cdot 1}\right)
\end{aligned}
$$
&lt;/li>
&lt;li>
&lt;p>Nenner&lt;/p>
$$
p\left(\underline{x}_{1: k} \mid \underline{y}_{1: k}\right)=p\left(\underline{x}_{k} \mid \underline{x}_{1: k - 1}, \underline{y}_{1: k}\right) \cdot p\left(\underline{x}_{1: k -1} \mid \underline{y}_{1: k - 1}\right)
$$
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Einsetzen, $w_k^{e, i}$ in Rekursiven Form schreiben&lt;/p>
$$
w_k^{e, i} = \frac{f\left(\underline{\hat{x}}_{1: k} \mid \underline{y}_{1 : k}\right)}{p\left(\underline{\hat{x}}_{1: k} \mid \underline{y}_{1 : k}\right)} \propto \frac{f\left(\underline{y}_{k} \mid \underline{x}_{k}^i\right) \cdot f\left(\underline{x}_{k}^i\mid \underline{x}_{k-1}^i\right)}{p\left(\underline{x}_{k}^i \mid \underline{x}_{1: k - 1}^i, \underline{y}_{1: k}\right)} \cdot \underbrace{\frac{f\left(\underline{x}_{1: k-1}^i \mid \underline{y}_{1: k \cdot 1}\right)}{p\left(\underline{x}_{1: k -1}^i \mid \underline{y}_{1: k - 1}\right)}}_{=w_{k-1}^{e, i}}
$$
&lt;p>und Normalisieren.&lt;/p>
&lt;/li>
&lt;/ol>
&lt;h3 id="spezielle-proposals">Spezielle Proposals&lt;/h3>
&lt;ul>
&lt;li>
&lt;p>&lt;strong>Standard Proposal&lt;/strong>&lt;/p>
$$
p\left(\underline{x}_{k} \mid \underline{x}_{k-1}, \underline{y}_{k}\right) \stackrel{!}{=} f\left(\underline{x}_{k} \mid \underline{x}_{k-1}\right)
$$
&lt;p>Dann ist&lt;/p>
$$
w_{k}^{e, i} \propto \frac{f\left(\underline{y}_{k} \mid \hat{\underline{x}}_{k}^{i}\right) \cdot f\left(\hat{\underline{x}}_{k}^{i} \mid \hat{\underline{x}}_{k-1}^{i}\right)}{p\left(\underline{\hat{x}}_{k}^{i} \mid \hat{\underline{x}}_{k-1}^{i}, \underline{y}_k\right)} \cdot w_{k-1}^{e, i}=f\left(\underline{y}_{k} \mid \hat{\underline{x}}_{k}^{i}\right) \cdot w_{k - 1}^{e, i}
$$
&lt;p>Sehr einfach aber keine verbesserte Performance.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Optimales Proposal&lt;/strong>&lt;/p>
$$
\begin{aligned}
p\left(\underline{x}_{k} \mid \underline{x}_{k-1}, \underline{y}_{k}\right) &amp;=f\left(\underline{x}_{k} \mid \underline{x}_{k-1}, \underline{y}_{k}\right) \\
&amp; \propto f\left(\underline{y}_{k} \mid \underline{x}_{k}\right) \cdot f\left(\underline{x}_{k} \mid \underline{x}_{k-1}\right)
\end{aligned}
$$
&lt;p>Dann ist&lt;/p>
$$
w_k^{e, i} = w_{k-1}^{e, i}
$$
&lt;p>Minimierte Varianz der Gewichte aber nur in Spezialfällen verwendbar.&lt;/p>
&lt;/li>
&lt;/ul></description></item><item><title>Häufige Prüfungsfragen</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/haeufige_fragen/</link><pubDate>Tue, 13 Sep 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/zusammenfassung/haeufige_fragen/</guid><description>&lt;h2 id="allgemeine-fragen">Allgemeine Fragen&lt;/h2>
&lt;h3 id="was-haben-wir-in-der-vorlesung-gemachtgelerntbehandelt">Was haben wir in der Vorlesung gemacht/gelernt/behandelt?&lt;/h3>
&lt;h3 id="was-ist-zustandsschätzung">Was ist Zustandsschätzung?&lt;/h3>
&lt;h3 id="was-ist-zustand">Was ist Zustand?&lt;/h3>
&lt;h3 id="welche-arten-von-systemen-sind-einfach-warum">Welche Arten von Systemen sind einfach? Warum?&lt;/h3>
&lt;p>Wertdiskret und wertkontinuierlich linear.&lt;/p>
&lt;p>Grund: konstanter Rechen- und Speicherbedarf&lt;/p>
&lt;h2 id="wertdiskrete-systeme">Wertdiskrete Systeme&lt;/h2>
&lt;h3 id="wonham-filter-herleiten">Wonham Filter herleiten&lt;/h3>
&lt;h2 id="wertkontinuierliche-lineare-systeme">Wertkontinuierliche lineare Systeme&lt;/h2>
&lt;h3 id="linear-kalman-filter-herleiten">Linear Kalman Filter herleiten&lt;/h3>
&lt;h3 id="eigeenschaften-des-kfs">Eigeenschaften des KFs&lt;/h3>
&lt;h2 id="wertkontinuierliche-schwache-nichtlineare-systeme">Wertkontinuierliche schwache nichtlineare Systeme&lt;/h2>
&lt;h3 id="wie-kann-man-erkennen-ob-ein-system-stark-oder-schwach-nichtlinear">Wie kann man erkennen, ob ein System stark oder schwach nichtlinear?&lt;/h3>
&lt;ul>
&lt;li>Vergleich mit Taylor Entwicklung 1. Ordnung&lt;/li>
&lt;li>Induzierte Nichtlinearität&lt;/li>
&lt;/ul>
&lt;h3 id="was-kann-man-machen-wenn-das-system-schwach-nichtlinear-ist">Was kann man machen, wenn das System schwach nichtlinear ist?&lt;/h3>
&lt;h3 id="wie-funktioniert-die-zustandsschätzung-bei-schwach-nichtlinearen-systemen">Wie funktioniert die Zustandsschätzung bei schwach nichtlinearen Systemen?&lt;/h3>
&lt;h3 id="wie-funktioniert-das-ekf-ekf-herleiten">Wie funktioniert das EKF? EKF herleiten&lt;/h3>
&lt;h3 id="ukf-erklären-und-herleiten">UKF erklären und herleiten&lt;/h3>
&lt;ul>
&lt;li>
&lt;p>Wie funktioniert die Filterung mit Samples?&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-09-12 22.29.08.png" alt="截屏2022-09-12 22.29.08" style="zoom: 33%;" />
&lt;/li>
&lt;li>
&lt;p>Wie können wir Samples von der Priore erzeugen?&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h3 id="unterschied-zwischen-ukf-und-enkf">Unterschied zwischen UKF und EnKF?&lt;/h3>
&lt;h3 id="nlkf-kf-in-probabilistischer-form">NLKF (KF in probabilistischer Form)&lt;/h3>
&lt;h2 id="allgemine-systeme">Allgemine Systeme&lt;/h2>
&lt;p>###Chapman-Komolgorov Gleichung herleiten&lt;/p>
&lt;h3 id="problem-von-allgemeinen-systeme">Problem von allgemeinen Systeme?&lt;/h3>
&lt;ul>
&lt;li>
&lt;p>Prädiktion: Parameterintergral bei Chapman-Komolgorov Gleichung&lt;/p>
&lt;ul>
&lt;li>&lt;span style="color: Red">Integrand hängt von $\underline{x}_{k+1}$ ab (lässt sich i.Allg nicht herausziehen)&lt;/span>&lt;/li>
&lt;li>&lt;span style="color: Red">Nur möglich für analytische Lösung&lt;/span>&lt;/li>
&lt;li>&lt;span style="color: Red">Sonst erfordert (numerische) Lösung des Integrals für alle $\underline{x}_{k+1}$&lt;/span>&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Filterung&lt;/p>
&lt;ul>
&lt;li>Type der Dichte zur Beschreibung der Schätzung ändert sich&lt;/li>
&lt;/ul>
&lt;ol start="2">
&lt;li>Dichte wrid mit jedem Schritt komplexer&lt;/li>
&lt;/ol>
&lt;/li>
&lt;/ul>
&lt;h3 id="wie-kann-man-gegen-parameterintergral-bei-prädiktion-tun">Wie kann man gegen Parameterintergral bei Prädiktion tun?&lt;/h3>
&lt;p>Transitionsdichte $f\left(\underline{x}_{k+1} \mid \underline{x}_k\right)$
durch entkoppelte Mixture approximieren&lt;/p>
$$
f\left(\underline{x}_{k+1} \mid \underline{x}_k\right)=\sum_{i=1}^L w_k^{(i)} f_{k+1}^{(i)}\left(\underline{x}_{k+1}\right) f_k^{(i)}\left(\underline{x}_k\right)
$$
&lt;p>Vorteil: die Integrande von CK-Gleichung, die von $\underline{x}_{k+1}$
, lässt sich rausziehen. Das Integral ist eine Konstante und wird als Faktor fürs neue Gewicht verwendet.&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-09-13 20.55.22.png" alt="截屏2022-09-13 20.55.22" style="zoom: 33%;" />
&lt;h3 id="generatives-system-mit-additivem-oder-multiplikativem-rauschen-in-probabilistische-überführen-und-herleiten">Generatives System (mit additivem oder multiplikativem Rauschen) in probabilistische überführen und herleiten&lt;/h3>
&lt;h2 id="sampling">Sampling&lt;/h2>
&lt;h3 id="wie-funktioniert-partikel-filter">Wie funktioniert Partikel Filter?&lt;/h3></description></item></channel></rss>