<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Wertediskrete Systeme | Haobin Tan</title><link>https://haobin-tan.netlify.app/tags/wertediskrete-systeme/</link><atom:link href="https://haobin-tan.netlify.app/tags/wertediskrete-systeme/index.xml" rel="self" type="application/rss+xml"/><description>Wertediskrete Systeme</description><generator>Hugo Blox Builder (https://hugoblox.com)</generator><language>en-us</language><lastBuildDate>Wed, 08 Jun 2022 00:00:00 +0000</lastBuildDate><image><url>https://haobin-tan.netlify.app/media/icon_hu7d15bc7db65c8eaf7a4f66f5447d0b42_15095_512x512_fill_lanczos_center_3.png</url><title>Wertediskrete Systeme</title><link>https://haobin-tan.netlify.app/tags/wertediskrete-systeme/</link></image><item><title>Wert- und Zeitdiskrete Systeme</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/wertdiskrete_systeme/wert_und_zeitdiskret_system/</link><pubDate>Fri, 03 Jun 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/wertdiskrete_systeme/wert_und_zeitdiskret_system/</guid><description>&lt;h2 id="vorbemerkungen">Vorbemerkungen&lt;/h2>
&lt;h3 id="signale-in-kontinuierlicher-und-diskreter-zeit">Signale in kontinuierlicher und diskreter Zeit&lt;/h3>
&lt;p>&lt;strong>kontinuierliche (konti.) Zeit&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Zeit ist kontinuierliche Variable&lt;/li>
&lt;li>Signal $s(t)$ nimmt bestimmten Wert $s^*(t^*)$
für beliebig kurze Zeitspanne an&lt;/li>
&lt;li>Zwischen zwei beliebigen Zeitpunkte $t_1$ und $t_2$ liegen &lt;em>unendlich&lt;/em> viele Zeitpunkt $t_1 \leq t \leq t_2$&lt;/li>
&lt;li>Werte könne kontinuierlich oder diskret sein&lt;/li>
&lt;/ul>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-06-03%2012.24.25.png" alt="截屏2022-06-03 12.24.25" style="zoom:60%;" />
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-06-03%2012.24.51.png" alt="截屏2022-06-03 12.24.51" style="zoom:60%;" />
&lt;ul>
&lt;li>Kontinuierlich in Zeit und Wert $\rightarrow$ analoges Signal&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>Diskrete Zeit&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Diskrete Zeitpunkt $t_k, k \in \mathbb{Z}$
&lt;/p>
$$
s_k := s(t_k)
$$
&lt;p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-deskrete_zeit.png" alt="wertdiskrete_systeme-deskrete_zeit" style="zoom:67%;" />&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Zeitliche Anordnung der $t_k$ ist beliebig, aber in viele Fällen &lt;em>äquidistant&lt;/em>
&lt;/p>
$$
t_k = k \cdot \Delta \quad k \in \mathbb{Z}
$$
&lt;/li>
&lt;li>
&lt;p>Wert können kontinuierlich oder diskret sein&lt;/p>
&lt;ul>
&lt;li>Diskret in Zeit und Ort $\rightarrow$ digitales Signal&lt;/li>
&lt;/ul>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-06-03%2014.54.54.png" alt="截屏2022-06-03 14.54.54" style="zoom:50%" />
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-06-03%2014.55.06.png" alt="截屏2022-06-03 14.55.06" style="zoom:50%" />
&lt;/li>
&lt;li>
&lt;p>Signale können inhärent zeitdiskret sein, oder aus Abtastung kontinuierliche Signale entstehen.&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h3 id="kategoriale-und-kardinale-variablen">Kategoriale und Kardinale Variablen&lt;/h3>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-06-03%2015.03.01.png" alt="截屏2022-06-03 15.03.01" style="zoom: 50%;" />
&lt;p>&lt;strong>Kategoriale Variable&lt;/strong>
&lt;details class="spoiler " id="spoiler-1">
&lt;summary class="cursor-pointer">Nominal&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;ul>
&lt;li>
&lt;p>The nominal scale is made up of pure labels.&lt;/p>
&lt;ul>
&lt;li>The only meaningful question to ask is whether two variables have the same value: the nominal scale only allows to compare two values w.r.t. equivalence.&lt;/li>
&lt;li>There is no meaningful transformation besides relabeling.&lt;/li>
&lt;li>No empirical operation is permissible, i.e., there is no mathematical operation of nominal features that is also meaningful in the material world.&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>A typical example is the sex of a human.&lt;/p>
&lt;ul>
&lt;li>The two possible values can be either written as “f” vs. “m,” “female” vs. “male”. The labels are different, but the meaning is the same.&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Although nominal values are sometimes represented by digits, one must not interpret them as numbers.&lt;/p>
&lt;ul>
&lt;li>For example, the postal codes used in Germany are digits, but there is no meaning in, e.g., adding two postal codes.&lt;/li>
&lt;li>Similarly, nominal features do not have an ordering, i.e., the postal code 12345 is not “smaller” than the postal code 56789. Of course, most of the time there are options for how to introduce some kind of lexicographic sorting scheme, but this is purely artificial and has no meaning for the underlying objects.
With respect to statistics, the permissible average is not the mean (since summa- tion is not allowed) or the median (since there is no ordering), but the mode, i.e., the most common value in the dataset.&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;/div>
&lt;/details>&lt;/p>
&lt;details class="spoiler " id="spoiler-2">
&lt;summary class="cursor-pointer">Ordinal&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;ul>
&lt;li>The ordinal scale allows comparing values &lt;strong>w.r.t. equivalence and rank.&lt;/strong>
&lt;ul>
&lt;li>Any transformation of the domain must preserve the order, which means that the transformation must be strictly increasing.&lt;/li>
&lt;li>But there is still no way to add an offset to one value in order to obtain a new value or to take the difference between two values.&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>Example: school grades.
&lt;ul>
&lt;li>In the German grading system, the grade 1 (“excellent”) is better than 2 (“good”), which is better than 3 (“satisfactory”) and so on.
&lt;ul>
&lt;li>But quite surely the difference in a student’s skills is not the same between the grades 1 and 2 as between 2 and 3, although the “difference” in the grades is unity in both cases.&lt;/li>
&lt;li>In addition, teachers often report the arithmetic mean of the grades in an exam, even though the arithmetic mean does not exist on the ordinal scale. In consequence, it is syntactically possible to compute the mean, even though the result, e.g., 2.47 has no place on the grading scale, other than it being “closer” to a 2 than a 3. The Anglo-Saxon grading system, which uses the letters “A” to “F”, is somewhat immune to this confusion.&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>The correct average involving an ordinal scale is obtained by the median.&lt;/li>
&lt;/ul>
&lt;/div>
&lt;/details>
&lt;p>&lt;strong>Kardinale Variable&lt;/strong>&lt;/p>
&lt;details class="spoiler " id="spoiler-3">
&lt;summary class="cursor-pointer">Interval&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;ul>
&lt;li>The interval scale allows adding an offset to one value to obtain a new one, or to calculate the difference between two values—hence the name.&lt;/li>
&lt;li>However, the interval scale lacks a naturally defined zero. Values from the interval scale are typically represented using real numbers, which contains the symbol “0,” but this symbol has no special meaning and its position on the scale is arbitrary. For this reason, the scalar multiplication of two values from the interval scale is meaningless. Permissible transformations preserve the order, but may shift the position of the zero.&lt;/li>
&lt;/ul>
&lt;/div>
&lt;/details>
&lt;details class="spoiler " id="spoiler-4">
&lt;summary class="cursor-pointer">Verhältnis&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;ul>
&lt;li>
&lt;p>The ratio scale has a well defined, non-arbitrary zero, and therefore allows calculating ratios of two values.&lt;/p>
&lt;ul>
&lt;li>This implies that there is a scalar multiplication and that any transformation must preserve the zero.&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Many features from the field of physics belong to this category and any transformation is merely a change of units.&lt;/p>
&lt;/li>
&lt;/ul>
&lt;/div>
&lt;/details>
&lt;details class="spoiler " id="spoiler-5">
&lt;summary class="cursor-pointer">Absolut&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
The absolute scale shares these properties, but is equipped with a natural unit and features of this scale can NOT be negative. In other words, features of the absolute scale represent counts of some quantities. Therefore, the only allowed transformation is the identity.
&lt;/div>
&lt;/details>
&lt;h2 id="wertdiskrete-systeme">Wertdiskrete Systeme&lt;/h2>
&lt;h3 id="statische-systeme">Statische Systeme&lt;/h3>
&lt;p>Ein-/Ausgang: Zufallsvariable $u_k$ (Eingang) und $y_k$ (Ausgang), $k \in \mathbb{N}_0$&lt;/p>
&lt;p>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-statistische_systeme.drawio.png" alt="wertdiskrete_systeme-statistische_systeme.drawio">&lt;/p>
&lt;p>$u_k$ und $y_k$ sind wertdiskret, wobei o.B.d.A&lt;/p>
$$
\begin{array}{l}
u_{k} \in\{1,2, \cdots, p\} \\
y_{k} \in\{1,2, \ldots, M\}
\end{array}
$$
&lt;p>Stochastische Abhängigkeit $y_k$ von $u_k$:&lt;/p>
$$
P\left(y_{k}=i \mid u_{k}=j\right) \qquad j \in\{1, \cdots, p\}, i \in\{1, \ldots, m\}
$$
&lt;p>Anordnung der Wahrscheinlichkeit in Matrix $A_k$:&lt;/p>
$$
\mathbf{A}_{k}=\left(\begin{array}{ccc}
P\left(y_{k}=1 \mid u_{k}=1\right) &amp; \cdots &amp; P\left(y_{k}=M \mid u_{k}=1\right) \\
\vdots &amp; &amp; \vdots \\
P\left(y_{k}=1 \mid u_{k}=P\right) &amp; \cdots &amp; P\left(y_{k}=M \mid u_{k}=P\right)
\end{array}\right)
$$
&lt;ul>
&lt;li>
&lt;p>Elemente $\geq 0$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Zeilensumme $= 1$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Auftrittswahrscheinlichkeit als Vektoren:&lt;/p>
$$
\eta_{k}^{u}=\left(\begin{array}{c}
P\left(u_{k}=1\right) \\
P\left(u_{k}=2\right) \\
\vdots \\
P\left(u_{k}=P\right)
\end{array}\right) \qquad \eta_{k}^{y}=\left(\begin{array}{c}
P\left(y_{k}=1\right) \\
P\left(y_{k}=2\right) \\
\vdots \\
P\left(y_{k}=M\right)
\end{array}\right)
$$
&lt;/li>
&lt;/ul>
&lt;p>Berechnung von $\eta_k^y$ aus $\eta_k^u$ (in Vektor-Matrix-Form):&lt;/p>
$$
\eta_{k}^{y}=\mathbf{A}_{k}^{\top} \eta_{k}^{u}
$$
&lt;details class="spoiler " id="spoiler-11">
&lt;summary class="cursor-pointer">Details&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
$$
\begin{aligned}
P\left(y_{k}=i\right) &amp;=\sum_{j=1}^{P} P\left(y_{k}=i, u_{k}=j\right) \\\\
&amp;=\sum_{j=1}^{p} P\left(y_{k}=i \mid u_{k}=j\right) \cdot P\left(u_{k}=j\right)
\end{aligned}
$$
&lt;/div>
&lt;/details>
&lt;p>Spezialfall: $u_k = j^*$ ist bekannt, also&lt;/p>
$$
\begin{array}{l}
P\left(u_{k}=j^{*}\right)=1 \\
P\left(u_{k}=j\right)=0 \quad j=1, \cdots M, j \neq j^{*}
\end{array}
$$
$$
\begin{aligned}
\Rightarrow \quad P\left(y_{k}=i\right) &amp;=\sum_{j=1}^{p} p\left(y_{k}=i \mid u_{k}=j\right) P\left(u_{k}=j\right) \\
&amp;=P\left(y_{k}=i \mid u_{k}=j^{*}\right)
\end{aligned}
$$
&lt;p>In Vektor-Matrix-Form:&lt;/p>
$$
\eta_{k}^{y}={\underbrace{\mathbf{A}_{k}\left(j^{*}, :\right)}_{\text{die } j^*-\text{te Zeile von } A_k}}^\top=\left(P\left(y_{k}=1 \mid u_{k}=j^{*}\right) \cdots P\left(y_{k}=M \mid u_{k}=j^{*}\right)\right)^{\top}
$$
&lt;h3 id="dynamische-systeme">Dynamische Systeme&lt;/h3>
&lt;ul>
&lt;li>Der aktuellen Ausgang $y_k$ ist abhängig von
&lt;ul>
&lt;li>dem aktuellen Eingang $u_k$&lt;/li>
&lt;li>dem aktuellen Zustand $x_k$&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>Aufteilung des dynamischen Systems in zwei Teile
&lt;ul>
&lt;li>&lt;strong>&lt;a href="#systemabbildung">Systemabbildung&lt;/a>&lt;/strong> (&lt;em>dynamischer&lt;/em> Teil): beschreibt zeitliche Entwicklung des Zustands $x_k$&lt;/li>
&lt;li>&lt;strong>&lt;a href="#messabbildung">Messabbildung&lt;/a>&lt;/strong> (&lt;em>statischer&lt;/em> Teil): beschreibt die Abbildung des Ausgang $y_k$ von Zustand $x_k$ (und evtl. von aktuellem Eingang $u_k$)&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;h4 id="systemabbildung">Systemabbildung&lt;/h4>
&lt;ul>
&lt;li>
&lt;p>Zufallsvariable $x_k, k \in \mathbb{N}_0$ mit $x_k \in \{1, 2, \dots, N\}$
&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Entwicklung des Zustands $x_k$ bescrhieben ducrch&lt;/p>
$$
P(x_{k+1}=i | x_k, \dots, x_1, x_0, u_k)
$$
&lt;p>($u_k$ oft explizit forgelassen)&lt;/p>
&lt;/li>
&lt;/ul>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">&lt;p>&lt;strong>Definition&lt;/strong>&lt;/p>
&lt;p>Bei $x_k$ handelt es sich um eine &lt;mark>&lt;strong>Markov-Ketter&lt;/strong>&lt;/mark> (erster Ordnung), falls gilt&lt;/p>
$$
P\left(x_{k+1}=i \mid x_{k}, \ldots, x_{1}, x_{0}, u_{k}\right)=P\left(x_{k+1}=i \mid x_{k}, u_{k}\right)
$$
&lt;/span>
&lt;/div>
&lt;ul>
&lt;li>
&lt;p>Die zukünftige Entwicklung $x_{k+1}$ ist bedingt unabhängig von vergangen Zuständen $x_{k-1}, \dots, x_1, x_0$, falls aktueller Zustand $x_k$ bekannt ist&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Vereinfachte Übergangswahrscheinlichkeit&lt;/p>
$$
P(x_{k+1} = j| x_k = i)
$$
&lt;/li>
&lt;/ul>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">&lt;p>&lt;strong>Definition&lt;/strong>&lt;/p>
&lt;p>Eine Markov-Kette wird als &lt;mark>&lt;strong>Zeithomogen&lt;/strong>&lt;/mark> oder allg. als &lt;mark>&lt;strong>zeitinvariant&lt;/strong>&lt;/mark> bezeichnet, falls die Übergangswahrscheinlichkeit nicht von Zeitindex abhängen, d.h. es gilt&lt;/p>
$$
P\left(x_{k+1}=j \mid x_{k}=i\right)=\mathbf{A}(i, j)
$$
&lt;p>Übergangsmatrix (zeithomogen):&lt;/p>
$$
\mathbf{A}=\left(\begin{array}{cccc}
A(1,1) &amp; A(1,2) &amp; \ldots &amp; A(1, N) \\\\
A(2,1) &amp; A(2,2) &amp; \cdots &amp; A(2, N) \\\\
\vdots &amp; \vdots &amp; &amp; \vdots \\\\
A(N, 1) &amp; A(N, 2) &amp; \cdots &amp; A(N, N)
\end{array}\right)
$$
&lt;/span>
&lt;/div>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">&lt;p>&lt;strong>Definition&lt;/strong>&lt;/p>
&lt;p>Eine quadratische Matrix $\mathbf{A}$ heißt &lt;mark>&lt;strong>Markov-Matrix&lt;/strong>&lt;/mark>, falls&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Alle Elemente &lt;strong>nicht-negative&lt;/strong> sind&lt;/p>
$$
A(i, j) \geq 0 \quad \text{ für } i, j \in \\{1, \dots, N\\}
$$
&lt;/li>
&lt;li>
&lt;p>Die Zeilensumme gleich 1&lt;/p>
$$
\sum_{i=1}^{N} A(i, j)=1 \quad \text{für } i \in \\{1, \dots, N\\}
$$
&lt;/li>
&lt;/ul>
&lt;/span>
&lt;/div>
&lt;p>Graphische Darstellung einer Markov-Kette:&lt;/p>
&lt;p>z.B. $N=2, x_k \in \\{1, 2\\}$&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-Markov_Kette.drawio.png" alt="wertdiskrete_systeme-Markov_Kette.drawio" style="zoom:80%;" />
&lt;h4 id="messabbildung">Messabbildung&lt;/h4>
&lt;ul>
&lt;li>
&lt;p>Zustand typischerweise NICHT direkt verfügbar (latente Variable)&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Messabbildung vom Zustand $x_k$ und dem aktuelle Eingang $u_k$ auf aktuelle Ausgang $y_k$&lt;/p>
$$
P\left(y_{k}=j \mid x_{k}=i, u_{k}=m\right)
$$
&lt;ul>
&lt;li>$u_k$ oft explizit forgelassen&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Zeithomogen (allg. zeitinvariant)&lt;/p>
$$
P\left(y_{k}=j|x_{k}=i\right)=B(i, j)
$$
&lt;/li>
&lt;li>
&lt;p>Messe-/Beobachtungsmatrix&lt;/p>
$$
\mathbf{B}=\left[\begin{array}{ccc}
B(1,1) &amp; \cdots &amp; B(1, M) \\
\vdots &amp; &amp; \vdots \\
B(N, 1) &amp; \cdots &amp; B(N, M)
\end{array}\right]
$$
&lt;/li>
&lt;/ul>
&lt;h4 id="gesamtes-dynamisches-system">Gesamtes Dynamisches System&lt;/h4>
&lt;p>&lt;strong>Hidden Markov Model&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>
&lt;p>&lt;strong>Zustand&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Wert $x_k, k=1,2,\dots$&lt;/li>
&lt;li>Verteilung $\eta_k^x, k=1,2,\dots$&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Initialer Zustand&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Wert $x_0$&lt;/li>
&lt;li>Verteilung $\eta_0^x$&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Eingänge&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Werte $u_k, k=0,1,\dots$&lt;/li>
&lt;li>Verteilung $\eta_k^u,k=0,1,\dots$&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Ausgänge&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Werte $y_k, k=0,1,\dots$&lt;/li>
&lt;li>Verteilung $\eta_k^y,k=0,1,\dots$&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Systemabbildung&lt;/strong> $\mathbf{A}_k$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Messabbildung&lt;/strong> $\mathbf{B}_k$&lt;/p>
&lt;/li>
&lt;/ul>
&lt;p>Graphische Darstellung&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Ausgerollte zeitliche Abhängigkeit der Zufallsvariablen&lt;/p>
&lt;figure>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-Markov_kette_ausgerollte.png"
alt="Markot-Kette (ausgerollte Darstellung)">&lt;figcaption>
&lt;p>Markot-Kette (ausgerollte Darstellung)&lt;/p>
&lt;/figcaption>
&lt;/figure>
&lt;/li>
&lt;li>
&lt;p>Rekursive Darstellung der zeitliche Abbildung der Zufallsvariablen&lt;/p>
&lt;figure>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-rekursiv_Markov_kettee.png"
alt="Markot-Kette (rekursive Darstellung)">&lt;figcaption>
&lt;p>Markot-Kette (rekursive Darstellung)&lt;/p>
&lt;/figcaption>
&lt;/figure>
&lt;/li>
&lt;li>
&lt;p>Betont Übergange und Wahrscheinlichkeit&lt;/p>
&lt;figure>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-Markov_kette_uebergaenge_und_wahrscheinlichkeit.drawio.png"
alt="Markot-Kette (betont Übergange und Wahrscheinlichkeit)">&lt;figcaption>
&lt;p>Markot-Kette (betont Übergange und Wahrscheinlichkeit)&lt;/p>
&lt;/figcaption>
&lt;/figure>
&lt;/li>
&lt;/ul></description></item><item><title>Zustandsschätzung</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/wertdiskrete_systeme/zustandsschaetzung/</link><pubDate>Wed, 08 Jun 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/wertdiskrete_systeme/zustandsschaetzung/</guid><description>&lt;h2 id="vorbemerkungen">Vorbemerkungen&lt;/h2>
&lt;h3 id="bayessches-gesetz-und-erweiterte-konditionierung">Bayessches Gesetz und erweiterte Konditionierung&lt;/h3>
$$
\begin{array}{l}
&amp;P(a \mid b) \cdot P(b)=P(a, b)=P(b \mid a) \cdot P(a) \\\\
\Rightarrow &amp;P(b \mid a)=\frac{P(a | b) \cdot P(b)}{P(a)}
\end{array}
$$
&lt;p>Erweiterte Konditionierung:&lt;/p>
$$
\begin{array}{l}
P(b \mid a, c) \cdot \underbrace{P(a, c)}_{P(a \mid c) \cdot P(c)}=P(a, b, c)=P(a \mid b, c) \cdot \underbrace{P(b, c)}_{P(b \mid c) \cdot P(c)} \\\\
\Rightarrow P(b \mid a, c) \cdot P(a \mid c)=P(a \mid b, c) \cdot P(b \mid c) \quad (\triangle) \\\\
\Rightarrow P(b \mid a, c)=\frac{P(a \mid b, c) \cdot P(b \mid c)}{P(a \mid c)}
\end{array}
$$
&lt;h3 id="notation-zu-abhängigkeit-vom-eingang">Notation zu Abhängigkeit vom Eingang&lt;/h3>
&lt;p>Abhängigkeit der Systemmatrizen $\mathbf{A}_k$ (Übergangsmatrix) und $\mathbf{B}_k$ (Messe-/Beobachtungsmatrix) von Eingang $u_k$ (4 dimensionale Felde):&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-abhaengigkeit_von_Eingang.png" alt="wertdiskrete_systeme-abhaengigkeit_von_Eingang" style="zoom:67%;" />
&lt;p>Schreibweise:&lt;/p>
$$
\begin{array}{l}
&amp;A\left(k, u_{k}, X_{k+1} = x_{k+1}, X_{k}=x_{k}\right) \\
= &amp;A\left(k, u_{k}, x_{k+1}, x_{k}\right) \\
= &amp;A_{k}\left(u_{k}, x_{k+1}, x_{k}\right) \\
= &amp;A_{k}^{u_{k}}\left(x_{k+1}, x_{k}\right) \\
\end{array}
$$
&lt;p>&amp;ldquo;Zum Zeitpunkt $k$ ist der aktuelle Zustand $X_k=x_k$. Was ist die Wahrscheinlichkeit vom den nächsten Zustand $X_{k+1}=x_{k+1}$, wenn der Eingang $u_k$ ist?&amp;rdquo;&lt;/p>
&lt;p>Zeitinvariante Fall:&lt;/p>
$$
A(u_k, x_{k+1}, x_k) = A_{u_k}(x_{k+1}, x_k)
$$
&lt;h2 id="zustandsschätzung">Zustandsschätzung&lt;/h2>
&lt;h3 id="ziel">Ziel&lt;/h3>
&lt;p>&lt;strong>Rekonstruktion&lt;/strong> des &lt;em>internen&lt;/em> Zustands aus Messungen und Eingängen (Annahme: $\mathbf{A}_k, \mathbf{B}_k$ bekannt)&lt;/p>
&lt;figure>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-rekusiver_Zustandschaetzer.png"
alt="Interner Zustand Schätzer">&lt;figcaption>
&lt;p>Interner Zustand Schätzer&lt;/p>
&lt;/figcaption>
&lt;/figure>
&lt;h3 id="problemformulierung">Problemformulierung&lt;/h3>
&lt;ul>
&lt;li>
&lt;p>Gegeben&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Eingänge $u_k, k = 0, \dots, k_u$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Messungen $y_k, k = 1, \dots, k_y$&lt;/p>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Gesucht: Rekonstruktion des Zustands&lt;/p>
&lt;ul>
&lt;li>
&lt;p>$\hat{x}_k, k = 1, \dots, k_x$ (alle interne Zustände)&lt;/p>
&lt;/li>
&lt;li>
&lt;p>$\hat{x}_{k_x}$ (der letzte Zustand)&lt;/p>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Bsp Darstellung&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-Schaetzung_Problemformulierung_grid.png" alt="wertdiskrete_systeme-Schaetzung_Problemformulierung_grid" style="zoom:50%;" />
&lt;/li>
&lt;li>
&lt;p>Paradigma: Nutzung aller Daten&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Zwei wichtige Fälle/Phasen&lt;/p>
&lt;ul>
&lt;li>
&lt;p>&lt;a href="#pr%C3%A4diktion">Prädiktion&lt;/a> ($k_u + 1 = k_x > k_y$)&lt;/p>
&lt;p>Eine Prädiktion für den aktuellen Zustand basierend auf den letzten Zustand machen&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;a href="#filterung">Filterung&lt;/a> ($k_u + 1 = k_x = k_y$)&lt;/p>
&lt;p>Mit der beobachtbaren Messungen die Prädiktion updaten/verfeinern&lt;/p>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;h3 id="prädiktion">Prädiktion&lt;/h3>
&lt;h4 id="allgemein">Allgemein&lt;/h4>
&lt;ul>
&lt;li>
&lt;p>Gegeben&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Schätzung des Zustands zu einem Zeitpunkt $m$, welche gesamte Eingang- und Messhistorik bis dahin enthält&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Eingänge $u_k$ für $k > m$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Systemmatrizen $A_k$ für $k>m$&lt;/p>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Interpretation&lt;/p>
&lt;p>Ab Zeitpunkt $m+1$ fehlen Messungen. Wie entwicklt sich System rein auf Basis des Systemmodells?&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Gesucht&lt;/p>
&lt;p>Prädiktion zu späteren Zeitpunkt $k>m$ für gegeben Eingänge bis $k-1$&lt;/p>
$$
P(x_k \mid y_{1:m}, u_{0: k- 1})
$$
&lt;p>für $x_k \in \{1, \dots, N\}$
&lt;/p>
&lt;/li>
&lt;/ul>
&lt;p>Beispiel:&lt;/p>
&lt;ul>
&lt;li>
&lt;p>$m = 2, k =3$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Prädiktion:&lt;/p>
$$
P(x_3 \mid y_{1:2}, u_{0:2})
$$
&lt;/li>
&lt;/ul>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-Praediktion.drawio.png" alt="wertdiskrete_systeme-Praediktion.drawio" style="zoom:80%;" />
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">&lt;p>Es ist wichtig, dem Bayessches Gesetz mit der erweiterten Konditionierung zu verwenden
&lt;/p>
$$
P(a, b \mid c) = P(a \mid b, c) \cdot P(b \mid c) \qquad (\ast)
$$&lt;/span>
&lt;/div>
&lt;p>Zum Zeitpunkt $k > m$:&lt;/p>
$$
\begin{array}{l}
&amp;P\left(x_{k} \mid y_{0: m}, u_{0: k-1}\right)\\
=&amp;P\left(x_{k} \mid y_{0}, y_{1}, \cdots, y_{m}, u_{0}, u_{1}, \cdots u_{k-1}\right) \quad \mid \text{Marginalisierung}\\
=&amp; \displaystyle \sum_{x_{k-1}=1}^{N} P\left(x_{k}, x_{k-1} \mid y_{0: m}, u_{0: k-1}\right)\\
\overset{(\ast)}{=}&amp;\displaystyle \sum_{x_{k-1}=1}^{N} P\left(x_{k} \mid x_{k-1}, y_{0: m}, u_{0: k-1}\right) P\left(x_{k-1} \mid y_{0: m}, u_{0: k-1}\right) \quad \mid \text{Markov}\\
=&amp;\displaystyle \sum_{x_{k-1}=1}^{N} \underbrace{P\left(x_{k} \mid x_{k-1}, u_{k-1}\right)}_{\text {Übergangswachrshheinlicheit }} \cdot \underbrace{P\left(x_{k-1} \mid y_{0: m}, u_{0 : k-2}\right)}_{\text {Schätzung für } k-1} \quad \text { (Rekursiv nach vorne) }
\end{array}
$$
&lt;p>(Die Summe beschreibt eine Vektor-Matrix-Multiplikation.)&lt;/p>
&lt;p>Anordnen der Einzelwahrscheinlichkeit in Vektoren:&lt;/p>
$$
\eta_{k \mid 1: m}^{x} = \left(\begin{array}{c}
P\left(x_{k}=1 \mid y_{1: m}, u_{0: k-1}\right) \\
\vdots \\
P\left(x_{k}=N \mid y_{1: m}, u_{0: k-1}\right)
\end{array}\right)
\qquad
\eta_{k-1 \mid 1: m}^{x}=\left(\begin{array}{c}
P\left(x_{k-1}=1 \mid y_{1: m}, u_{0: k-2}\right) \\
\vdots \\
P\left(x_{k-1}=N \mid y_{1: m}, u_{0: k-2}\right)
\end{array}\right)
$$
&lt;p>Rekursive Prädiktion:&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Beginn: Schätzvektor $\eta_{m \mid 1: m}^{x}$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Rekursion: für $k > m$&lt;/p>
$$
\eta_{k \mid 1: m}^{x}=\mathbf{A}_{k}^{\top} \eta_{k-1 \mid 1 : m}^{x}
$$
&lt;/li>
&lt;li>
&lt;p>Spezialfall: Einschrittprädiktion ($k = m + 1$)&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h4 id="konkretes-beispiel">Konkretes Beispiel&lt;/h4>
&lt;ul>
&lt;li>
&lt;p>Systemmodell (zeitinvariant)&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Systemabbildung&lt;/p>
$$
\mathbf{A}_{u_{k}}=\left(\begin{array}{ll}
a_{1}\left(u_{k}\right) &amp; 1-a_{1}\left(u_{k}\right) \\
a_{2}\left(u_{k}\right) &amp; 1-a_{2}\left(u_{k}\right)
\end{array}\right) \qquad a_{1}\left(u_{k}\right), a_{2}\left(u_{k}\right) \in[0,1]
$$
&lt;blockquote>
&lt;p>Reminder: $A(i, j):=P\left(x_{k+1}=j \mid x_{k}=i\right)$&lt;/p>
&lt;/blockquote>
&lt;/li>
&lt;li>
&lt;p>Messeabbildung&lt;/p>
$$
\mathbf{B}=\left(\begin{array}{ll}
b_{1} &amp; 1-b_{1} \\
b_{2} &amp; 1-b_{2}
\end{array}\right) \qquad b_1, b_2 \in [0, 1]
$$
&lt;blockquote>
&lt;p>Reminder: $B(i, j):=P\left(y_{k}=j \mid x_{k}=i\right)$&lt;/p>
&lt;/blockquote>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;p>​&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Gegeben&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Initialer Zustandsschätzvektor&lt;/p>
$$
\eta_{0}^{x}=\left[\begin{array}{c}
p_{0} \\
1-p_{0}
\end{array}\right] (=P(x_0))
\qquad p_{0} \in[0,1]
$$
&lt;p>(Also: $P(x_0 = 1) = P_0, P(x_0 = 2) = 1- P_0$)&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Werte der Eingänge $u_0, u_1, u_2$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Keine Messungen&lt;/p>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Gesucht&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Verbundverteilung für die Zeitpunkt $k = 1, 2, 3$&lt;/p>
$$
P\left(x_{1}, x_{2}, x_{3} \mid u_{0}, u_{1}, u_{2}\right)=: P\left(x_{1,3} \mid u_{0: 2}\right)
$$
&lt;/li>
&lt;li>
&lt;p>Verteilung zum Zeitpunkt $k=3$&lt;/p>
$$
p\left(x_{3} \mid u_{0}, u_{1}, u_{2}\right)=p\left(x_{3} \mid u_{0: 2}\right)=\eta_{3}^{x}\left(x_{3}\right)
$$
&lt;/li>
&lt;/ul>
&lt;p>Also wir sind in Zeitschritt 0, und möchte Prädiktion machen für&lt;/p>
&lt;ul>
&lt;li>zukünftige Zustände $x_k, k = 1, 2, 3$&lt;/li>
&lt;li>zukünftige Messungen $y_k, k=1,2,3$&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;p>Aufspaltung der Verbundverteilung für $k = 0, 1, 2, 3$:&lt;/p>
$$
\begin{aligned}
&amp; P\left(x_{0: 3} \mid u_{0: 2}\right) \\
\overset{(\ast)}{=}&amp; P\left(x_{3} \mid x_{0: 2}, u_{0: 2}\right) \cdot P\left(x_{0: 2} \mid u_{0: 2}\right) \\
\overset{\text{Markov}}{=}&amp; P\left(x_{3} \mid x_{2}, u_{2}\right) \cdot P\left(x_{2} \mid x_{0: 1}, u_{0: 2}\right) \cdot P\left(x_{0: 1} \mid u_{0: 2}\right) \\
\overset{\text{Markov}}{=}&amp; P\left(x_{3} \mid x_{2}, u_{2}\right) \cdot P\left(x_{2} \mid x_{1}, u_{1}\right) P\left(x_{1} \mid x_{0}, u_{0: 2}\right) \cdot P\left(x_{0} \mid u_{0: 2}\right) \\
=&amp; P\left(x_{3} \mid x_{2}, u_{2}\right) \cdot P\left(x_{2} \mid x_{1}, u_{1}\right) \cdot P\left(x_{1} \mid x_{0}, u_{0}\right) \cdot P\left(x_{0}\right) \\
=&amp; A_{u_{2}}\left(x_{2}, x_{3}\right) \cdot A_{u}\left(x_{1}, x_{2}\right) \cdot A_{u_{0}}\left(x_{0}, x_{1}\right) \cdot \eta_{0}^{x}\left(x_{0}\right)
\end{aligned}
$$
&lt;p>Verbundverteilung für $k = 1, 2, 3$:&lt;/p>
$$
\begin{aligned}
P\left(x_{1: 3} \mid u_{0: 2}\right) &amp;=\sum_{x_{0}=1}^{2} P\left(x_{0: 3} \mid u_{0: 2}\right) \\
&amp;=\underbrace{P\left(x_{3} \mid x_{2}, u_{2}\right)}_{=\mathbf{A}_{u_{2}}\left(x_{2}, x_{3}\right)} \cdot \underbrace{P\left(x_{2} \mid x_{1}, u_{1}\right)}_{=\mathbf{A}_{u_{1}}\left(x_{1}, x_{2}\right)} \cdot \underbrace{\sum_{x_0=1}^{2} P\left(x_{1} \mid x_{0}, u_{0}\right) \cdot P\left(x_{0}\right)}_{=P\left(x_{1} \mid u_{0}\right)=\eta_{1}^{*}\left(x_{1}\right)}
\end{aligned}
$$
&lt;blockquote>
&lt;p>$P\left(x_{1: 3} \mid u_{0: 2}\right)$ bedeutet: $P$ indiziert mit dem 3-dimensionalen Indexvekter $(1, 2, 3)^\top$. Jede von dem kann 2 Wer4te annehmen.&lt;/p>
&lt;/blockquote>
$$
\begin{array}{l}
\eta_{1}^{x}\left(x_{1}\right) &amp;= \sum_{x_{0}=1}^{2} A_{u_{0}}\left(x_{0}, x_{1}\right) \cdot \eta_{0}^{x}\left(x_{0}\right)\\
&amp;=A_{u_{0}}\left(x_{0}=1, x_{1}\right) \underbrace{{P}_{0}}_{=P(x_0 = 1)}+A_{u_{0}}\left(x_{0}=2, x_{1}\right) \underbrace{\left(1-P_{0}\right)}_{=P\left(x_{0}=2\right)} \quad (\text{Marginalisierung})\\
&amp;=\left\{\begin{array}{ll}
a_{1} \cdot p_{b}+a_{2}\left(1-p_{0}\right) &amp; x_{1}=1 \\
\left(1-a_{1}\right) p_{0}+\left(1-a_{2}\right)\left(1-p_{0}\right) &amp; x_{1}=2
\end{array}\right.
\end{array}
$$
$$
\begin{aligned}
P\left(x_{3} \mid u_{0: 2}\right)=&amp;\displaystyle \sum_{x_{2}=1}^{2} \sum_{x_{1}=1}^{2} P\left(x_{1: 3} \mid u_{0: 2}\right)\\
=&amp;\displaystyle \sum_{x_{2}=1}^{2} A_{u_{2}}\left(x_{2}, x_{3}\right) \underbrace{\displaystyle \sum_{x_{1} = 1}^{2}\left(x_{1}, x_{2}\right) \eta_{1}^{x}\left(x_{1}\right)}_{=P\left(x_{1} \mid u_{0:1}\right)=\eta_{2}^{x}\left(x_{1}\right)}\\
=&amp;\sum_{x_{2}=1}^{2} A_{u_{2}}\left(x_{2}, x_{3}\right) \cdot \eta_{2}^{x}\left(x_{2}\right)\\\\
=&amp; \eta_{3}^{x}\left(x_{3}\right)
\end{aligned}
$$
$$
\begin{aligned}
\eta_{3}^{x} &amp;=\mathbf{A}_{u_{2}}^{\top} \cdot \underbrace{\eta_{2}^{x}}_{=\mathbf{A}_{u_{1}}^{\top} \cdot \eta_{1}^{x}} \\
&amp;=\mathbf{A}_{u_{2}}^{\top} \cdot (\mathbf{A}_{u_{1}}^{\top} \cdot \underbrace{\eta_{1}^{x}}_{=\mathbf{A}_{u_{0}}^{\top} \cdot \eta_{0}^{x}})\\
&amp;=\mathbf{A}_{u_{2}}^{\top} \cdot (\mathbf{A}_{u_{1}}^{\top} \cdot (\mathbf{A}_{u_{0}}^{\top} \cdot \eta_{0}^{x})) \quad \text { (rekursive Berechnung) }
\end{aligned}
$$
&lt;p>Prädikition der Messungen für $k=1,2,3$:&lt;/p>
$$
\begin{aligned}
&amp; P(y_{1}, y_{2}, y_{3}, x_{1: 3} \mid u_{0: 2}) \\\\
\overset{(\ast)}{=}&amp; P\left(y_{1: 3} \mid x_{1: 3}, u_{0: 2}\right) \cdot P\left(x_{1: 3} \mid u_{0: 2}\right) \\\\
=&amp; P\left(y_{1: 3} \mid x_{1: 3}\right) P\left(x_{1: 3} \mid u_{0: 2}\right) \\\\
=&amp; P\left(y_{1} \mid x_{1: 3}\right) P\left(y_{2} \mid x_{1: 3}\right) P\left(y_{3} \mid x_{1: 3}\right) P\left(x_{1: 3} \mid u_{0: 2}\right) \\\\
=&amp; P\left(y_{1} \mid x_{1}\right) \cdot P\left(y_{2} \mid x_{2}\right) \cdot P\left(y_{3} \mid x_{3}\right) P\left(x_{1: 3} \mid u_{0: 2}\right) \\\\
=&amp; B\left(x_{1}, y_{1}\right) B\left(x_{2}, y_{2}\right) B\left(x_{3}, y_{3}\right) P\left(x_{1: 3} \mid u_{0: 2}\right)
\end{aligned}
$$
&lt;p>Prädikition Messung für $k=3$:&lt;/p>
$$
\begin{aligned}
&amp; P\left(y_{3}, x_{3} \mid u_{0: 2}\right) \\
\overset{(\ast)}{=}&amp; P\left(y_{3} \mid x_{3}, u_{0: 2}\right) \cdot P\left(x_{3} \mid u_{0: 2}\right) \\
=&amp; P\left(y_{3} \mid x_{3}\right) \cdot P\left(x_{3} \mid u_{0: 2}\right) \\
=&amp; B\left(x_{3}, y_{3}\right) \cdot \eta_{3}^{x}\left(x_{3}\right)
\end{aligned}
$$
&lt;h3 id="filterung-wonham-filter">Filterung (Wonham Filter)&lt;/h3>
&lt;p>Wie sieht $P\left(x_{k} \mid y_{1: k}, u_{0: k-1}\right)$ auf Basis der Prädiktion $P\left(x_{k} \mid y_{1: k-1}, u_{0: k-1}\right)$ aus?&lt;/p>
&lt;p>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-Filterung.drawio.png" alt="wertdiskrete_systeme-Filterung.drawio">&lt;/p>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">&lt;p>&lt;strong>Reminder&lt;/strong>&lt;/p>
$$
P(b \mid a, c) \cdot P(a \mid c)=P(a \mid b, c) \cdot P(b \mid c) \quad (\triangle)
$$&lt;/span>
&lt;/div>
$$
\begin{aligned}
&amp; P\left(x_{k} \mid y_{1: k}, u_{0: k-1}\right) \\
=&amp;\quad P(\underbrace{x_{k}}_{b} \mid \underbrace{y_{k}}_{a}, \underbrace{\left.y_{1: k-1}, u_{0: k-1}\right)}_{c}\\\\
\overset{(\triangle)}{=}&amp; \frac{P\left(y_{k} \mid x_{k}, y_{1: k-1}, u_{0: k-1}\right) \cdot P\left(x_{k} \mid y_{1: k-1}, u_{0: k-1}\right)}{P\left(y_{k} \mid y_{1: k-1}, u_{0: k-1}\right)}\\\\
= &amp; \frac{\overbrace{P\left(y_{k} \mid x_{k}\right)}^{\text{Likelihood}} \cdot \overbrace{P\left(x_{k} \mid y_{1: k-1}, u_{0: k-1}\right)}^{\text{Einschritt-Prädiktion}}}{\underbrace{P\left(y_{k} \mid y_{1: k-1}, u_{0: k-1}\right)}_{\text{Normalisierungskonstant}}}
\end{aligned}
$$
&lt;ul>
&lt;li>Likelihood&lt;/li>
&lt;/ul>
$$
P\left(y_{k} \mid x_{k}\right)=B_{k}\left(x_{k}, y_{k}\right) \qquad(\text{Element aus Messmatrix})
$$
&lt;ul>
&lt;li>Normalisierungskonstant&lt;/li>
&lt;/ul>
$$
\begin{aligned}
&amp; P\left(y_{k} \mid y_{1: k-1}, u_{0: k-1}\right) \\\\
\stackrel{\text { Margin. }}{=} &amp; \sum_{x_{k}=1}^{N} P\left(y_{k}, x_{k} \mid y_{1: k-1}, u_{0: k-1}\right) \\\\
\overset{(\ast)}{=}&amp; \sum_{x_{k}=1}^{N} P\left(y_{k} \mid x_{k}, y_{1: k-1}, u_{0: k-1}\right) \cdot P\left(x_{k} \mid y_{1: k-1}, u_{0: k-1}\right) \\\\
=&amp; \sum_{x_{k} = 1}^{N} P\left(y_{k} \mid x_{k}\right) \cdot P\left(x_{k} \mid y_{1: k-1}, u_{0: k-1}\right)
\end{aligned}
$$
&lt;ul>
&lt;li>Einschrittsprädikation&lt;/li>
&lt;/ul>
$$
\eta_{k \mid 1: k-1}^{x}=\mathbf{A}_{k}^{\top} \eta_{k-1\mid1: k-1}^{x}
$$
&lt;p>Filterung in Vektor-Matrix-Form:&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Für $y_k = m$, Bilde eine Diagonalematrix $\operatorname{diag}(\mathbf{B}(:, m))$ mit Spalte des Messmatrix $\mathbf{B}(:, m)$&lt;/p>
$$
\begin{aligned}
\eta_{k \mid 1: k}^{x} &amp;\overset{y_k = m}{=}\frac{\operatorname{diag}(\mathbf{B}(:, m)) \cdot \eta_{k \mid 1: k-1}^{x}}{\mathbb{1}_{N}^{T} \operatorname{diag}(\mathbf{B}(:, m)) \cdot \eta_{k \mid 1: k-1}^{x}} \\\\
&amp;=\frac{\mathbf{B}(:, m) \odot \eta_{k \mid 1: k-1}^{x}}{\mathbf{B}(:, m)^\top \cdot \eta_{k \mid 1:k-1}^{x}}
\end{aligned}
$$
&lt;ul>
&lt;li>$\mathbf{1}_N$: Einsvektor&lt;/li>
&lt;li>$\odot$: Elementwise-Multiplikation&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;p>Das ist ein komplett rekursives Filter $\rightarrow$ &lt;mark>&lt;strong>Wonham Filter&lt;/strong>&lt;/mark>&lt;/p>
&lt;p>Beispiel siehe &lt;a href="https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/hmm_und_wonham_filter/">hier&lt;/a>.&lt;/p></description></item></channel></rss>