<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Math | Haobin Tan</title><link>https://haobin-tan.netlify.app/tags/math/</link><atom:link href="https://haobin-tan.netlify.app/tags/math/index.xml" rel="self" type="application/rss+xml"/><description>Math</description><generator>Hugo Blox Builder (https://hugoblox.com)</generator><language>en-us</language><lastBuildDate>Sun, 03 Jul 2022 00:00:00 +0000</lastBuildDate><image><url>https://haobin-tan.netlify.app/media/icon_hu7d15bc7db65c8eaf7a4f66f5447d0b42_15095_512x512_fill_lanczos_center_3.png</url><title>Math</title><link>https://haobin-tan.netlify.app/tags/math/</link></image><item><title>Math</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/</link><pubDate>Sat, 04 Jun 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/</guid><description>&lt;p>Tutorials&lt;/p>
&lt;ul>
&lt;li>
&lt;p>&lt;a href="https://welt-der-bwl.de/Statistik">Statistik&lt;/a>: Zusammenfassung von Statistik&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;a href="https://studyflix.de/statistik">Statistik Tutorials von Studyflix&lt;/a> 👍&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Youtube channel &amp;ldquo;&lt;a href="https://www.youtube.com/c/MathebyDanielJung">Math by Daniel Jung&lt;/a>&amp;rdquo; (klar erklärt mit Beispiele) 👍&lt;/p>
&lt;/li>
&lt;/ul></description></item><item><title>Ereignis und Wahrscheinlichkeit</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/ereignisse_und_wahrscheinlichtkeit/</link><pubDate>Sat, 04 Jun 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/ereignisse_und_wahrscheinlichtkeit/</guid><description>&lt;h1 id="ereignisse">Ereignisse&lt;/h1>
&lt;p>Ein &lt;strong>endlicher Ergebnisraum&lt;/strong> eines &lt;strong>Zufallsexperimentes&lt;/strong> ist eine nichtleere Menge&lt;/p>
&lt;p>
$$
\Omega=\left\{\omega_{1}, \omega_{2}, \ldots, \omega_{N}\right\}.
$$
&lt;em>I.e.,&lt;/em> $\Omega$ enthält alle mögliche Ergebnisse.&lt;/p>
&lt;p>Die Elemente $\omega_{n} \in \Omega$
heißen &lt;mark>&lt;strong>Ergebnisse&lt;/strong>&lt;/mark>, die möglichen Ausgänge eines Zufallsexperiments.&lt;/p>
&lt;p>Jede Teilmenge $A \subset \Omega$ heißt &lt;mark>&lt;strong>Ereignis&lt;/strong>&lt;/mark>.&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Jede einelementige Teilmenge $\left\{\omega_{n}\right\} \subset \Omega$
heißt &lt;mark>&lt;strong>Elementarereignis&lt;/strong>&lt;/mark> (ZUsammenfassung von einem oder mehreren Ergebnissen).&lt;/p>
&lt;p>$\rightarrow$ Der Ergebnisraum $\Omega$ (das &lt;strong>sichere Ereignis&lt;/strong>) und die leere Menge $\emptyset$ (das &lt;strong>unmögliche Ereignis&lt;/strong>) sind stets Ereignisse.&lt;/p>
&lt;/li>
&lt;/ul>
&lt;p>Für zwei Ereignisse $A$ und $B$&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Gilt $A \subset B$, so ist $A$ ein &lt;mark>&lt;strong>Teilereignis&lt;/strong>&lt;/mark> von $B$.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Der &lt;strong>Durchschnitt&lt;/strong> $(A \cap B)$, die Vereinigung $(A \cup B)$, und die &lt;strong>Differenz&lt;/strong> $(A-B)$ sind auch Ereignisse.&lt;/p>
&lt;ul>
&lt;li>Durchschnitt und Vereinigung sind &lt;em>kommutativ&lt;/em>, &lt;em>assoziativ&lt;/em> und &lt;em>distributiv&lt;/em>.&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Das &lt;strong>entgegengesetzte Ereignis&lt;/strong> $\bar{A}$ von $A$ ist auch ein Ereignis und wird als &lt;mark>&lt;strong>Negation&lt;/strong>&lt;/mark> oder &lt;mark>&lt;strong>Komplement&lt;/strong>&lt;/mark> bezeichnet.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Gilt $A \cap B=\varnothing$, so heißen $A$ und $B$ &lt;mark>&lt;strong>disjunkt&lt;/strong>&lt;/mark> ode &lt;mark>&lt;strong>unvereinbar&lt;/strong>&lt;/mark> .&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>de MORGANschen Formeln&lt;/strong>&lt;/p>
$$
\begin{array}{l}
\overline{A \cup B}=\bar{A} \cap \bar{B} \\
\overline{A \cap B}=\bar{A} \cup \bar{B}
\end{array}
$$
&lt;/li>
&lt;/ul>
&lt;details class="spoiler " id="spoiler-4">
&lt;summary class="cursor-pointer">Beispiel&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;p>Würfel werfen.&lt;/p>
&lt;ul>
&lt;li>Ergebnisraum $\Omega = \\{1, 2, 3, 4, 5, 6\\}$
(Also $\|\Omega\| = 6$)&lt;/li>
&lt;li>Beispiel Ereignise
&lt;ul>
&lt;li>&amp;ldquo;Der Würfel zeight eine ungerade Zahl.&amp;rdquo;&lt;/li>
&lt;li>&amp;ldquo;Der Würfel zeigt eine 3.&amp;rdquo;&lt;/li>
&lt;li>&amp;ldquo;Der Würfel zeigt eine 3.&amp;rdquo; (das unmögliche Ereignis)&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>Ereignis $A$ = &amp;ldquo;Der Würfel zeight eine ungerade Zahl.&amp;rdquo; = $\\{1, 3, 5\\}$. Ereignis $B$ = &amp;ldquo;Der Würfel zeight eine gerade Zahl&amp;rdquo; = $\\{2, 4, 6\\}$. $A \cap B = \emptyset$ $\Rightarrow$ $A$ und $B$ sind disjunkt oder unvereinbar.&lt;/li>
&lt;/ul>
&lt;p>Reference:
&lt;/p>
&lt;/div>
&lt;/details>
&lt;h2 id="wahrscheinlichkeit-von-kolmogoroff">Wahrscheinlichkeit (von Kolmogoroff)&lt;/h2>
&lt;p>Ein nichtleeres System $\mathfrak{B}$ von Teilmengen eines Ergebnisraums $\Omega$ heißt &lt;mark>&lt;strong>$\sigma$-Algebra&lt;/strong>&lt;/mark> (über $\Omega$), wenn gilt&lt;/p>
$$
\begin{array}{c}
A \in \mathfrak{B} \quad \Rightarrow \quad \bar{A} \in \mathfrak{B}, \\
A_{n} \in \mathfrak{B} ; n=1,2, \ldots \quad \Rightarrow \quad \bigcup_{n=1}^{\infty} A_{n} \in \mathfrak{B}.
\end{array}
$$
&lt;p>Ein höchstens abzählbares System&lt;/p>
$$\left\{A_{n} \in \mathfrak{B}: A_{k} \cap A_{n}=\varnothing, k \neq n\right\}$$
&lt;p>heißt &lt;mark>&lt;strong>vollständige Ereignisdisjunktion&lt;/strong>&lt;/mark>, wenn gilt $\bigcup_{n=1}^{\infty} A_{n}=\Omega$
.&lt;/p>
&lt;h3 id="kolmogoroffsche-axiome">Kolmogoroffsche Axiome&lt;/h3>
&lt;p>Gegeben seien ein Ergebnisraum $\Omega$ und eine geeignete $\sigma$-Algebra $\mathfrak{B}$ über $\Omega$. Die Elemente von $\mathfrak{B}$ sind also die Ereignisse eines Zufallsexperiments.&lt;/p>
&lt;p>Eine Funktion $P$, die jedem Ereignis $A \in \mathfrak{B}$ eine relle Zahl zuordnet, erfülle&lt;/p>
$$
\begin{aligned}
\mathrm{P}(\Omega) &amp;=1 \quad &amp;(\text{Normiertheit})\\
\mathrm{P}(A) &amp; \geq 0 \quad \forall A \in \mathfrak{B} \quad &amp;(\text{Nicht-negativität}) \\
\mathrm{P}\left(\bigcup_{n=1}^{\infty} A_{n}\right) &amp;=\sum_{n=1}^{\infty} \mathrm{P}\left(A_{n}\right) \quad A_i \cap A_j = \emptyset, \forall i,j \quad &amp;(\text{Additivität})
\end{aligned}
$$
&lt;p>dann heißt $P(A)$ die &lt;mark>&lt;strong>Wahrscheinlichkeit&lt;/strong>&lt;/mark> des Ereignisses $A$.&lt;/p>
&lt;details class="spoiler " id="spoiler-9">
&lt;summary class="cursor-pointer">Beispiel&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;p>Würfelwurf&lt;/p>
&lt;p>Ergebnisraum $\Omega = \\{1, 2, 3, 4, 5, 6\\}$&lt;/p>
&lt;p>Ereignis $E = \text{Zahlen von 1 bis 6}$, also $E_i$
ist die Zahl $i$ (z.B $E_1$
ist die Zahl 1).&lt;/p>
&lt;p>Dann haben wir:&lt;/p>
$$
\begin{aligned}
P(E_1) &amp;= \frac{1}{6} \\
P(E_2) &amp;= \frac{1}{6} \\
P(\Omega) &amp;= \frac{6}{6} = 1 \\
P(E_1 \cup E_2) &amp;= \frac{1}{6} + \frac{1}{6} = \frac{2}{6} \quad (E_1 \cap E_2 = \emptyset)
\end{aligned}
$$
&lt;p>Reference:&lt;/p>
&lt;pre>&lt;code>&amp;lt;div style=&amp;quot;position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;&amp;quot;&amp;gt;
&amp;lt;iframe allow=&amp;quot;accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share&amp;quot; allowfullscreen=&amp;quot;allowfullscreen&amp;quot; loading=&amp;quot;eager&amp;quot; referrerpolicy=&amp;quot;strict-origin-when-cross-origin&amp;quot; src=&amp;quot;https://www.youtube.com/embed/GtpN4SRESaA?autoplay=0&amp;amp;controls=1&amp;amp;end=0&amp;amp;loop=0&amp;amp;mute=0&amp;amp;start=0&amp;quot; style=&amp;quot;position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;&amp;quot; title=&amp;quot;YouTube video&amp;quot;
&amp;gt;&amp;lt;/iframe&amp;gt;
&amp;lt;/div&amp;gt;
&lt;/code>&lt;/pre>
&lt;/div>
&lt;/details>
&lt;p>Hieraus folgt&lt;/p>
$$
\begin{aligned}
\mathrm{P}(\varnothing) &amp;=0, \\
\mathrm{P}(\bar{A}) &amp;=1-\mathrm{P}(A), \\
0 \leq \mathrm{P}(A) &amp; \leq 1, \\
\mathrm{P}(A \cup B) &amp;=\mathrm{P}(A)+\mathrm{P}(B)-\mathrm{P}(A \cap B), \\
\mathrm{P}\left(\bigcup_{n=1}^{\infty} A_{n}\right) &amp;=1 \quad \text { für jede vollständige Ereignisdisjunktion } A_{n} .
\end{aligned}
$$
&lt;h2 id="bedingte-wahrscheinlichkeiten">Bedingte Wahrscheinlichkeiten&lt;/h2>
&lt;p>Sei $B \subset \Omega$ als &lt;strong>vorausgesetztes Ereignis&lt;/strong>, $A, B \in \mathfrak{B}$ und $\mathrm{P}(B)>0$. Dann heißt&lt;/p>
$$
\mathrm{P}(A \mid B)=\frac{\mathrm{P}(A \cap B)}{\mathrm{P}(B)}
$$
&lt;p>&lt;mark>&lt;strong>bedingte Wahrscheinlichkeit&lt;/strong>&lt;/mark> von $A$ unter der Bedingung $B$.&lt;/p>
&lt;h3 id="multiplikationsregel-fur-wahrscheinlichkeiten">Multiplikationsregel für Wahrscheinlichkeiten&lt;/h3>
$$
\mathrm{P}(A \cap B)=\mathrm{P}(A \mid B) \mathrm{P}(B)
$$
&lt;p>Im allgemein ist $\mathrm{P}(A \mid B) \neq \mathrm{P}(B \mid A)$. Es gilt die Beziehung&lt;/p>
$$
\mathrm{P}(A \mid B) \mathrm{P}(B)=\mathrm{P}(A \cap B) = \mathrm{P}(B \mid A) \mathrm{P}(A)
$$
&lt;p>Verallgemeinierung: Die wiederholte Anwendung der Multiplikationsregel auf den Durchschnitt $N$ zufälliger Ereignisse liefert&lt;/p>
$$
\begin{aligned}
&amp;\mathrm{P}\left(\bigcap_{n=1}^{N} A_{n}\right) \\
=&amp;\mathrm{P}\left(\bigcap_{n=2}^{N} A_{n} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right) \\
=&amp;\mathrm{P}\left(\bigcap_{n=3}^{N} A_{n} \mid A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{2} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right) \\
=&amp;\mathrm{P}\left(\bigcap_{n=4}^{N} A_{n} \mid A_{3} \cap A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{3} \mid A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{2} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right) \\
=&amp;\mathrm{P}\left(A_{N} \mid \bigcap_{n=1}^{N-1} A_{n}\right) \cdots \mathrm{P}\left(A_{4} \mid A_{3} \cap A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{3} \mid A_{2} \cap A_{1}\right) \mathrm{P}\left(A_{2} \mid A_{1}\right) \mathrm{P}\left(A_{1}\right)
\end{aligned}
$$
&lt;details class="spoiler " id="spoiler-15">
&lt;summary class="cursor-pointer">Beispiel&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;p>Vereinfachung mit 3 Ereignisse&lt;/p>
$$
\begin{array}{ll}
&amp;P(A) \cdot P(B \mid A) \cdot P(C \mid A \cap B) \\\\
=&amp;P(A) \cdot \frac{P(A \cap B)}{P(A)} \cdot \frac{P(C \mid A \cap B)}{P(A \cap B)} \\\\
=&amp;P(A \cap B \cap C)
\end{array}
$$
&lt;p>Ref:
&lt;/p>
&lt;/div>
&lt;/details>
&lt;h3 id="formel-von-der-totalen-wahrscheinlichkeit">Formel von der totalen Wahrscheinlichkeit&lt;/h3>
&lt;p>Die Ereignisse $A_{n}(1 \leq n \leq N)$
seien eine vollständige &lt;em>Ereignisdisjunktion&lt;/em> (also $A_i \cap A_j = \emptyset, \forall i, j$
) und es gelte $\mathrm{P}\left(A_{n}\right)>0, \forall n$
. Dann folgt für $\forall B \in \mathfrak{B}$ die &lt;strong>Formel von der totalen Wahrscheinlichkeit&lt;/strong>&lt;/p>
$$
\mathrm{P}(B)=\sum_{n=1}^{N} \mathrm{P}\left(B \mid A_{n}\right) \mathrm{P}\left(A_{n}\right)
$$
&lt;details class="spoiler " id="spoiler-20">
&lt;summary class="cursor-pointer">Beispiel&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;p>$A \cap \bar{A} = \emptyset$&lt;/p>
$$
\begin{array}{l}
P(B)&amp;=P(B \cap A)+P(B \cap \bar{A}) \\\\
&amp;=P(A)P(B \mid A)+P(\bar{A})P(B \mid \bar{A})
\end{array}
$$
&lt;/div>
&lt;/details>
&lt;details class="spoiler " id="spoiler-21">
&lt;summary class="cursor-pointer">Beispiel&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;/div>
&lt;/details>
&lt;p>Und wenn $P(B) > 0$ ist, folgt die &lt;strong>Formel von Bayes&lt;/strong>:&lt;/p>
$$
\mathrm{P}\left(A_{n} \mid B\right)=\frac{\mathrm{P}\left(B \mid A_{n}\right) \mathrm{P}\left(A_{n}\right)}{\sum_{k=1}^{N} \mathrm{P}\left(B \mid A_{k}\right) \mathrm{P}\left(A_{k}\right)}
$$
&lt;p>Im allgemeinen ist $\mathrm{P}(A) \neq \mathrm{P}(A \mid B)$. Gilt aber für $A, B \in \mathfrak{B}$&lt;/p>
$$
\mathrm{P}(A \mid B)=\mathrm{P}(A),
$$
&lt;p>so heißt $A$ &lt;mark>&lt;strong>unabhängig&lt;/strong>&lt;/mark> von $B$.&lt;/p>
&lt;p>Für unabhängige Ereignisse folgt hieraus&lt;/p>
$$
\begin{array}{c}
\mathrm{P}(A \cap B)=\mathrm{P}(A \mid B) \mathrm{P}(B)=\mathrm{P}(A) \mathrm{P}(B) \\
\mathrm{P}(B \mid A)=\frac{\mathrm{P}(A \cap B)}{\mathrm{P}(A)}=\mathrm{P}(B)
\end{array}
$$</description></item><item><title>(Diracsche) Delta-Distribution / Delta-Funktion</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/dirac_funktion/</link><pubDate>Sat, 04 Jun 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/dirac_funktion/</guid><description>&lt;h2 id="definition">Definition&lt;/h2>
&lt;p>Die &lt;mark>&lt;strong>Delta-Distribution&lt;/strong>&lt;/mark> (aka. &lt;strong>Dirac-Funktion&lt;/strong>, &lt;strong>Dirac-Maß&lt;/strong>, &lt;strong>Impulsfunktion&lt;/strong>) ist eine spezielle irreguläre &lt;a href="https://de.wikipedia.org/wiki/Distribution_(Mathematik)">Distribution&lt;/a> mit &lt;a href="https://de.wikipedia.org/wiki/Kompakter_Raum">kompaktem&lt;/a> &lt;a href="https://de.wikipedia.org/wiki/Tr%C3%A4ger_(Mathematik)">Träger&lt;/a>.&lt;/p>
$$
\begin{array}{c}
\delta(x)=0, \quad x \neq 0 \\\\
\displaystyle \int_{a}^{b} \delta(x) \mathrm{d} x=1, \quad a&lt;0&lt;b
\end{array}
$$
&lt;p>Illustration: Delta-Funktion im Ursprung wird als Pfeil bei $x=0$ dargestellt und repräsentiert eine Punktladung (Source: &lt;a href="https://de.universaldenker.org/lektionen/235">Dirac&amp;rsquo;sche Delta-Funktion und ihre Eigenschaften&lt;/a>).&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/dirac-delta-graph.svg" alt="Darstellung einer Delta-Funktion im Ursprung als Pfeil" style="width: 50%;" />
&lt;h2 id="delta-funktion-im-koordinatenursprung">Delta-Funktion im Koordinatenursprung&lt;/h2>
&lt;p>Betrachte ein Integral der Delta-Funktion zusammen mit einer &lt;strong>Testfunktion&lt;/strong> $f(x)$&lt;/p>
$$
\int_{a}^{b} f(x) \delta(x) \mathrm{d} x
$$
&lt;p>Denn $\delta(x)$ ist überall $0$, außer an der Stelle $x=0$.&lt;/p>
&lt;p>$\Rightarrow$ $f(x)\delta(x)$ ist überall $0$, außer an der Stelle $x=0$.&lt;/p>
&lt;p>$\Rightarrow$ Im Integral bleibt nur der Funktionswert $f(0)$ erhalten, der nicht von $x$ abhängt.&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/dirac-delta-function-picks-function-value-at-origin-with-boundaries.svg" alt="Delta-Funktion pickt den Funktionswert am Ursprung in einem Intervall" style="width:50%;" />
&lt;p>Daher gilt:&lt;/p>
$$
\int_{a}^{b} f(x) \delta(x) \mathrm{d} x= \int_{a}^{b} f(0)\delta(x) \mathrm{d} x=f(0) \underbrace{\int_{a}^{b} \delta(x)\mathrm{d} x}_{=1} = f(0)
$$
&lt;h2 id="eigenschaften">Eigenschaften&lt;/h2>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">Bei Berechnen/Verweden/Überprüfen der Eigenschaften von Dirac-Funktion ist es wichtig, die &lt;a href="https://de.wikipedia.org/wiki/Integration_durch_Substitution">Substitutionsregel&lt;/a> zu verwenden.&lt;/span>
&lt;/div>
&lt;h3 id="verschobene-delta-funktion">Verschobene Delta-Funktion&lt;/h3>
&lt;p>Verschiebe die Ladung an eine andere Stelle auf der $x$-Achse (z.B an die Stelle $x=x_0$). Das Argument der Delta-Funktion wird zu $\delta(x-x_0)$.&lt;/p>
&lt;p>Die verschobene Delta-Funktion mit einer anderen Funktion $f(x)$ im Integral multipliziert:&lt;/p>
$$
\int_{a}^{b} f(x) \delta\left(x-x_{0}\right) \mathrm{d} x=f\left(x_{0}\right)
$$
&lt;details class="spoiler " id="spoiler-4">
&lt;summary class="cursor-pointer">Beweis&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/verschobene_Dirac_Fkt.gif" alt="verschobene_Dirac_Fkt">
&lt;/div>
&lt;/details>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/shifted-dirac-delta-function.svg" alt="Verschobene Delta-Funktion pickt einen Funktionswert heraus" style="width:50%;" />
&lt;p>Nach rechts verschobene Delta-Funktion pickt den Wert $f(x_0)$ der Funktion an der Stelle $x=x_0$.&lt;/p>
&lt;details class="spoiler " id="spoiler-5">
&lt;summary class="cursor-pointer">Beispiel&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-06-02%2012.10.45.png" alt="截屏2022-06-02 12.10.45">
&lt;/div>
&lt;/details>
&lt;details class="spoiler " id="spoiler-6">
&lt;summary class="cursor-pointer">Beispiel&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
Eine Delta-Funktion außerhlad der Integrationsgrenzen
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-06-02%2012.11.43.png" alt="截屏2022-06-02 12.11.43">
&lt;/div>
&lt;/details>
&lt;h3 id="symmetrie">Symmetrie&lt;/h3>
&lt;p>Delta-Funktion ist symmetrisch (gerade)&lt;/p>
$$
\delta(x) = \delta(-x)
$$
&lt;details class="spoiler " id="spoiler-8">
&lt;summary class="cursor-pointer">Beweis&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-06-02%2012.47.40.png" alt="截屏2022-06-02 12.47.40">
&lt;/div>
&lt;/details>
&lt;h3 id="skalierung">Skalierung&lt;/h3>
&lt;p>Skaliertes Argument der Delta-Funktion&lt;/p>
$$
\int_{a}^{b} f(x) \delta(|k| x) \mathrm{d} x=\frac{1}{|k|} f(0)
$$
&lt;details class="spoiler " id="spoiler-10">
&lt;summary class="cursor-pointer">Beweis&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-06-02%2016.27.14.png" alt="截屏2022-06-02 16.27.14">
&lt;/div>
&lt;/details>
&lt;h3 id="hintereinanderausführung">Hintereinanderausführung&lt;/h3>
$$
\int_{-\infty}^{\infty} f(x) \delta(g(x)) \mathrm{d} x=\sum_{i=1}^{n} \frac{f\left(x_{i}\right)}{\left|g^{\prime}\left(x_{i}\right)\right|}
$$
&lt;p>wobei $g(x_i) = 0$ und $g^\prime(x_i) \neq 0$.&lt;/p>
&lt;details class="spoiler " id="spoiler-12">
&lt;summary class="cursor-pointer">Beweis&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;p>Substituiere&lt;/p>
$$
u := g(x)
$$
&lt;p>Dann gilt:&lt;/p>
$$
\begin{aligned}
x &amp;= g^{-1}(u) \\\\
\frac{du}{dx} &amp;= g^\prime(x) = g^\prime(g^{-1}(u))
\end{aligned}
$$
&lt;p>Da $\delta(x) \neq 0$ nur bei $x = 0$, können wir den Bereich des Integrals in kleine Intervalle um jede Nullstelle $x_i$ von $g(x)$ aufteilen, wobei $g(x)$ monoton und somit invertierbar ist.&lt;/p>
$$
\begin{aligned}
\int f(x) \delta(g(x)) d x &amp;=\sum_{i} \int_{x_{i}-\varepsilon_{i}}^{x_{i}+\varepsilon_{i}} f(x) \delta(g(x)) d x \\\\
&amp;=\sum_{i} \int_{g\left(x_{i}-\varepsilon_{i}\right)}^{g\left(x_{i}+\varepsilon_{i}\right)} f\left(g^{-1}(u)\right) \delta(u) \frac{1}{g^{\prime}\left(g^{-1}(u)\right)} d u \\\\
&amp;=\sum_{i} \int_{g\left(x_{i}-\varepsilon_{i}\right)}^{g\left(x_{i}+\varepsilon_{i}\right)} \frac{f\left(g^{-1}(u)\right)}{g^{\prime}\left(g^{-1}(u)\right)} \delta(u) d u \\\\
&amp;=\sum_{i} \int_{g\left(x_{i}-\varepsilon_{i}\right)}^{g\left(x_{i}+\varepsilon_{i}\right)} \frac{f\left(x_{i}\right)}{g^{\prime}\left(x_{i}\right)} \delta(u) d u \quad(\ast)
\end{aligned}
$$
&lt;p>$g^\prime (x_i) > 0$
:&lt;/p>
$$
\begin{aligned}
(\ast) &amp;=\sum\_{i} \frac{f\left(x\_{i}\right)}{g^{\prime}\left(x\_{i}\right)} \underbrace{\int\_{g\left(x\_{i}-\varepsilon\_{i}\right)}^{g\left(x\_{i}+\varepsilon\_{i}\right)} \delta(u) d u}\_{=1} \\\\
&amp;=\sum\_{i} \frac{f\left(x\_{i}\right)}{g^{\prime}\left(x\_{i}\right)} \\\\
&amp;=\sum\_{i} \frac{f\left(x\_{i}\right)}{|g^{\prime}\left(x\_{i}\right)|}
\end{aligned}
$$
&lt;p>$g^\prime (x_i) &lt; 0$
:&lt;/p>
&lt;p>Dann ist&lt;/p>
$$
g(x_i + \varepsilon_i) &lt; g(x_i - \varepsilon_i)
$$
&lt;p>Daher&lt;/p>
$$
\begin{aligned}
(\ast) &amp;=\sum_{i} \int\_{g\left(x\_{i}+\varepsilon\_{i}\right)}^{g\left(x\_{i}-\varepsilon\_{i}\right)} \frac{f\left(x\_{i}\right)}{g^{\prime}\left(x\_{i}\right)} \delta(u) d u \\\\
&amp;=\sum\_{i} \int\_{g\left(x\_{i}-\varepsilon\_{i}\right)}^{g\left(x\_{i}+\varepsilon_{i}\right)}-\frac{f\left(x_{i}\right)}{g^{\prime}\left(x\_{i}\right)} \delta(u) d u \\\\
&amp;=\sum\_{i} \int_{g\left(x\_{i}-\varepsilon\_{i}\right)}^{g\left(x\_{i}+\varepsilon\_{i}\right)} \frac{f\left(x\_{i}\right)}{\left|g^{\prime}\left(x_{i}\right)\right|} \delta(u) d u \\\\
&amp;=\sum\_{i} \frac{f\left(x\_{i}\right)}{\left|g^{\prime}\left(x\_{i}\right)\right|} \underbrace{\int\_{g\left(x\_{i}-\varepsilon\_{i}\right)}^{g\left(x\_{i}+\varepsilon\_{i}\right)} \delta(u) d u}\_{=1} \\\\
&amp;=\sum_{i} \frac{f\left(x\_{i}\right)}{\left|g^{\prime}\left(x\_{i}\right)\right|}
\end{aligned}
$$
&lt;p>Also&lt;/p>
$$
\int_{-\infty}^{\infty} f(x) \delta(g(x)) \mathrm{d} x=\sum_{i=1}^{n} \frac{f\left(x_{i}\right)}{\left|g^{\prime}\left(x_{i}\right)\right|} \qquad (\square)
$$
&lt;/div>
&lt;/details>
&lt;p>Ref: &lt;a href="https://math.stackexchange.com/questions/276583/dirac-delta-function-of-a-function">Dirac Delta Function of a Function&lt;/a>&lt;/p>
&lt;h2 id="reference">Reference&lt;/h2>
&lt;ul>
&lt;li>&lt;a href="https://de.universaldenker.org/lektionen/235">Dirac&amp;rsquo;sche Delta-Funktion und ihre Eigenschaften&lt;/a> 👍👍👍&lt;/li>
&lt;/ul></description></item><item><title>Zufallsvariable</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/zufallsvariable/</link><pubDate>Sat, 04 Jun 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/zufallsvariable/</guid><description>&lt;h2 id="zufallsvariablen">Zufallsvariablen&lt;/h2>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-yellow-100 dark:bg-yellow-900">
&lt;span class="pr-3 pt-1 text-red-400">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="M12 9v3.75m-9.303 3.376c-.866 1.5.217 3.374 1.948 3.374h14.71c1.73 0 2.813-1.874 1.948-3.374L13.949 3.378c-.866-1.5-3.032-1.5-3.898 0zM12 15.75h.007v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">&lt;p>Zufallsvariablen werden auf den SI-Übungsblättern durch kleine, fettgedruckte Buchstaben gekennzeichnet, z.B. $X$.&lt;/p>
&lt;p>Diese Notation wird nicht auf den handschriftlichen Mitschrieben umgesetzt, sodass Zufallsvariablen und „normale“ Variablen meistens aus dem Kontext heraus unterschieden werden müssen. 🤪&lt;/p>
&lt;/span>
&lt;/div>
&lt;p>Eine &lt;mark>&lt;strong>Zufallsvariable&lt;/strong>&lt;/mark> ist eine Art Funktion, die jedem Ergebnis $\omega$ deines Zufallsexperiments genau eine Zahl $x$ zuordnet.&lt;/p>
&lt;ul>
&lt;li>ordnet also den Ergebnissen eines Zufallsexperiments reelle Zahlen zu&lt;/li>
&lt;li>beschreibt sozusagen das Ergebnis eines Zufallsexperiments, das noch nicht durchgeführt wurde&lt;/li>
&lt;/ul>
&lt;blockquote>
&lt;p>Man sagt Variable, weil deine Zahl, die du am Ende erhältst, eben variabel ist.&lt;/p>
&lt;/blockquote>
&lt;p>‼️&lt;strong>Wichtig: zwischen $X$ und $x$ zu unterscheiden.&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>$X$: die tatsächliche Zufallsvariable, welche keinen festen Wert hat. Sie bildet das derzeit unbekannte Ergebnis eines Zufallsexperiments ab&lt;/li>
&lt;li>$x$: das Ergebnis nach dem Experiment und steht ist somit eine konkrete Zahl.&lt;/li>
&lt;/ul>
&lt;p>Bsp: 2 Würfeln werfen&lt;/p>
&lt;ul>
&lt;li>Zufallsvariable $X$ = Augensumme&lt;/li>
&lt;li>$P(X = 6)$: &amp;ldquo;Die Wahrscheinlichkeit, dass die Summe von zwei Würfeln sechs ergibt&amp;rdquo; (Hier $x=6$)&lt;/li>
&lt;/ul>
&lt;h3 id="diskrete-zufallsvariable">Diskrete Zufallsvariable&lt;/h3>
&lt;p>Eine Zufallsvariable wird als &lt;mark>&lt;strong>diskret&lt;/strong>&lt;/mark> bezeichnet, wenn sie nur &lt;strong>endlich viele&lt;/strong> oder &lt;strong>abzählbar&lt;/strong> unendlich viele Werte annimmt.&lt;/p>
&lt;ul>
&lt;li>Sklaenarten: Nominal- oder Ordinalskala&lt;/li>
&lt;/ul>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">„Abzählbar unendlich“ bedeutet, dass die Menge der Ausprägungen durchnummeriert werden kann.&lt;/span>
&lt;/div>
&lt;p>Bsp: Das Ergebnis beim Würfelwurf ist $x \in \Omega = \\{1, 2, 3, 4, 5, 6\\}$, also $|\Omega| = 6$.&lt;/p>
&lt;h4 id="wahrscheinlichkeitsfunktion">Wahrscheinlichkeitsfunktion&lt;/h4>
&lt;p>Bei diskreten Zufallsvariablen ermittelt man die &lt;mark>&lt;strong>Wahrscheinlichkeitsfunktion&lt;/strong> (Engl. Probability mass function (PMF))&lt;/mark>, die Wahrscheinlichkeit für ein ganz konkretes Ergebnis angibt.&lt;/p>
$$
f(x): \Omega \rightarrow[0,1], x \in \mathbb{N}_{0}
$$
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-05-31%2022.20.17.png" alt="截屏2022-05-31 22.20.17" style="zoom: 50%;" />
&lt;p>Die Funktionswert&lt;/p>
$$
f(x) = P(X=x)
$$
&lt;p>entspricht der Wahrscheinlichkeit, dass $X$ den Wert $x$ annimmt. Daher gilt&lt;/p>
$$
\sum_{x \in \Omega} f(x)=1
$$
&lt;blockquote>
&lt;p>Man schreibt für die „Dichte“ einer diskreten Zufallsvariablen, deren Einzelwahrscheinlichkeiten $p_n = P(X = x_n)$ gegeben sind, auch
&lt;/p>
$$
> f_{X}(x)=\sum_{n=1}^{\infty} \mathrm{P}\left(X=x_{n}\right) \delta\left(x-x_{n}\right)=\sum_{n=1}^{\infty} p_{n} \delta\left(x-x_{n}\right)
> $$
&lt;ul>
&lt;li>$\delta(\cdot)$: &lt;a href="https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/dirac_funktion/">Delta-Distribution&lt;/a>&lt;/li>
&lt;/ul>
&lt;/blockquote>
&lt;h4 id="verteilungsfunktion">Verteilungsfunktion&lt;/h4>
&lt;p>Die &lt;mark>&lt;strong>Verteilungsfunktion (aka. Kumulative Wahrscheinlichkeitsdichte, Engl,. Cumulative Distribution Function (CDF))&lt;/strong>&lt;/mark> gibt an, mit welcher Wahrscheinlichkeit das Ergebnis des Zufallsexperiments &lt;em>kleiner oder gleich&lt;/em> eines bestimmten Wertes ist.&lt;/p>
&lt;ul>
&lt;li>Dafür werden alle Ergebnisse bis zu diesem Wert aggregiert, also „aufaddiert“. Deshalb spricht man auch oft von einer &lt;strong>kumulativen Verteilungsfunktion&lt;/strong>.&lt;/li>
&lt;/ul>
&lt;p>Um die diskrete Verteilungsfunktion zu erhalten, werden schrittweise alle Wahrscheinlichkeitswerte kumuliert. Das heißt, man bildet das Integral unter der Wahrscheinlichkeitsfunktion.&lt;/p>
$$
F(x): \boldsymbol{\Omega} \rightarrow[\mathbf{0}, \mathbf{1}], X \in \mathbb{N}_{\mathbf{0}}
$$
$$
F(x)= P(X \leq x) = \sum_{x_{i} \leq x} f\left(x_{i}\right)
$$
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-05-31%2022.20.17.png" alt="截屏2022-05-31 22.20.17" style="zoom: 40%; float: left" />
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-05-31%2022.43.01.png" alt="截屏2022-05-31 22.43.01" style="zoom:40%; float:right" />
&lt;p>Eigenschaften&lt;/p>
&lt;ul>
&lt;li>$\lim _{x \rightarrow-\infty} F_{X}(x)=0 ; \lim _{x \rightarrow \infty} F_{X}(x)=1$
&lt;/li>
&lt;li>$F(X)$ ist monoton steigend und rechtseitig stetig&lt;/li>
&lt;/ul>
&lt;details class="spoiler " id="spoiler-9">
&lt;summary class="cursor-pointer">Beispiel&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;p>Würfelwurf:&lt;/p>
&lt;p>Wahrscheinlichkeitsfunktion:&lt;/p>
$$
f(X=k) = \frac{1}{6} \quad k \in \\{1, 2, 3, 4, 5, 6\\}
$$
&lt;p>Verteilungsfunktion:&lt;/p>
$$
F(3) = P(X \leq 3) = \sum_{i\leq 3}f(X=i) = \frac{1}{3} + \frac{1}{3} + \frac{1}{3}
$$
&lt;/div>
&lt;/details>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">In der SI Vorlesung sowie Übung wird die Verteilungsfunktion der Zufallsvariable $X$ als $F_{X}(x)$ schreiben.&lt;/span>
&lt;/div>
&lt;p>Differenz zwischen kumulativer Wahrscheinlichkeiten:&lt;/p>
$$
F(b) - F(a) = P(a &lt; x \leq b) = P(x\leq b) - P(x \leq a)
$$
&lt;h3 id="stetige-zufallsvariable">Stetige Zufallsvariable&lt;/h3>
&lt;p>Eine &lt;mark>&lt;strong>stetige&lt;/strong>&lt;/mark> Zufallsvariable&lt;/p>
&lt;ul>
&lt;li>ist &lt;strong>überabzählbar&lt;/strong>, also nimmt &lt;em>unendlich viele, nicht abzählbare&lt;/em> Werte an.&lt;/li>
&lt;li>meistens bei Messvorgängen der Fall (z.B. Zeit, Längen oder Temperatur)&lt;/li>
&lt;li>Skalenarten: Intervall- oder Rationalskala&lt;/li>
&lt;/ul>
&lt;p>Für stetige Zufallsvariable können wir die Wahrscheinlichkeit nur für &lt;strong>Intervalle&lt;/strong> und NICHT für genaue Werte bestimmen.&lt;/p>
&lt;ul>
&lt;li>Es gibt doch unendlich viele Werte, also ist es unmöglich, ein exaktes Ergebnis festzulegen.&lt;/li>
&lt;li>z.B.
&lt;ul>
&lt;li>&amp;ldquo;Mit welcher Wahrscheinlichkeit ist eine zufällig gewählte Studentin zwischen 165cm und 170cm groß?&amp;rdquo;&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>Man benutzt im stetigen Fall die &lt;strong>Verteilungsfunktion&lt;/strong> zur Berechnung von Wahrscheinlichkeiten.&lt;/li>
&lt;/ul>
&lt;h4 id="dichtefunktion">Dichtefunktion&lt;/h4>
&lt;p>Die &lt;mark>&lt;strong>Dichtefunktion (Engl. Probability Density Function (PDF))&lt;/strong>&lt;/mark> oder &lt;strong>Dichte&lt;/strong> beschreibt, &amp;ldquo;Wie dicht liegen die betrachteten Werte um einen beliebigen Punkt?&amp;rdquo;&lt;/p>
$$
f(x): \mathbf{\Omega} \rightarrow \mathbb{R}^{+}
$$
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-05-31%2022.24.46.png" alt="截屏2022-05-31 22.24.46" style="zoom:50%;" />
&lt;ul>
&lt;li>Eigenschaften von $f$:&lt;/li>
&lt;/ul>
$$
\begin{array}{l}
f \text{ ist integrierbar}\\
f(x) \geq 0 \quad \forall x \in \mathbb{R} \\
\displaystyle \int_{-\infty}^{+\infty} f(x) \mathrm{d} x=1
\end{array}
$$
&lt;ul>
&lt;li>
&lt;p>Unterschied zu Wahrscheinlichkeitsfunktion&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Die Dichtefunktion liefert nicht die Wahrscheinlichkeit, sondern NUR die &amp;ldquo;Wahrscheinlichkeitsdichte&amp;rdquo;&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Bei der stetigen Zufallsvariable, überabzählbar und unendlich viele Ausprägung hat, ist die Wahrscheinlichkeit für jede konkrete Ausprägung gleich 0
&lt;/p>
$$
P(X=x) = 0 \quad \forall x \in \mathbb{R}
$$
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;p>Die Wahrscheinlichkeit, dass $X$ einen Wert $x \in [a, b]$ annimmt , entspricht der Fläsche $S$&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-05-31%2022.37.24.png" alt="截屏2022-05-31 22.37.24" style="zoom:50%;" />
$$
P(a \leq x \leq b)=\int_{a}^{b} f(x) \mathrm{d} x=S
$$
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">In der SI Vorlesung sowie Übung wird die Dichtefunktion der Zufallsvariable $X$ als $f_{X}(x)$ schreiben.&lt;/span>
&lt;/div>
&lt;h4 id="verteilungsfunktion-1">Verteilungsfunktion&lt;/h4>
$$
F(x): \Omega \rightarrow[0,1], x \in \mathbb{R}
$$
$$
F(x)=\int f(x) \mathrm{d} x, \quad f(x)=\frac{F(x)}{\mathrm{d} x}
$$
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-05-31%2022.24.46.png" alt="截屏2022-05-31 22.24.46" style="zoom:40%; float:left" />
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-05-31%2023.01.08.png" alt="截屏2022-05-31 23.01.08" style="zoom:40%; float:right" />
&lt;p>Die Verteilungsfunktion ist eigentlich die Fläche unter der Dichtfunktion:&lt;/p>
$$
F(x)=P(X \leq x=c)=\int_{-\infty}^{c} f(x) \mathrm{d} x
$$
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-05-31%2023.05.33.png" alt="截屏2022-05-31 23.05.33" style="zoom:50%;" />
&lt;p>Die Differenz zwischen zwei Verteilungsfunktion ist also:&lt;/p>
$$
F(b)-F(a)=P(a \leq x \leq b)=\int_{a}^{b} f(x) \mathrm{d} x
$$
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/截屏2022-05-31%2023.07.26.png" alt="截屏2022-05-31 23.07.26" style="zoom:50%;" />
&lt;h4 id="dichtefunktion-vs-verteilungsfunktion">Dichtefunktion vs. Verteilungsfunktion&lt;/h4>
&lt;ul>
&lt;li>
&lt;p>Dichtfunktion beschreibt, wie sind die Wahrscheinlichkeiten konkret verteilt?&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Verteilungsfunktion&lt;/p>
&lt;ul>
&lt;li>Summieren der Wahrscheinlichkeiten $\rightarrow$ Bestimmung der Wahrscheinlichkeit für Intervall&lt;/li>
&lt;li>liefert die Wahrscheinlichkeit dafür, dass ien Ereignis $\leq$ eines bestimmten Werted eintritt&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;h3 id="diskrete-vs-stetige-zufallsvariable">Diskrete Vs. Stetige Zufallsvariable&lt;/h3>
&lt;style type="text/css">
.tg {border-collapse:collapse;border-spacing:0;}
.tg td{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;
overflow:hidden;padding:10px 5px;word-break:normal;}
.tg th{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;
font-weight:normal;overflow:hidden;padding:10px 5px;word-break:normal;}
.tg .tg-c3ow{border-color:inherit;text-align:center;vertical-align:top}
.tg .tg-7btt{border-color:inherit;font-weight:bold;text-align:center;vertical-align:top}
&lt;/style>
&lt;table class="tg">
&lt;thead>
&lt;tr>
&lt;th class="tg-c3ow">Zufalls-&lt;br>variable&lt;/th>
&lt;th class="tg-7btt">&lt;span style="font-style:normal">Diskret&lt;/span>&lt;/th>
&lt;th class="tg-7btt">&lt;span style="font-style:normal">Stetig&lt;/span>&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td class="tg-c3ow">&lt;span style="font-style:normal">Beispiel&lt;/span>&lt;/td>
&lt;td class="tg-7btt">&lt;span style="font-weight:400;font-style:normal">Würfelwurf&lt;/span>&lt;/td>
&lt;td class="tg-c3ow">Zeit&lt;br>Temperatur&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td class="tg-c3ow">Wahrscheinlichkeit &lt;br>für&lt;/td>
&lt;td class="tg-c3ow">bestimmter/konkreter Punkt&lt;br>$P(X=x) \in [0, 1]$&lt;/td>
&lt;td class="tg-c3ow">NUR für Intervall&lt;br>($P(X=x) = 0$)&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td class="tg-c3ow">Wahrscheinlichkeitsfunktion/&lt;br>Dichtefunktion&lt;/td>
&lt;td class="tg-c3ow">&lt;span style="font-style:normal">Wahrscheinlichkeitsfunktion&lt;/span>&lt;br>$f(x): \Omega \rightarrow[0,1], x \in \mathbb{N}_{0}$&lt;br>$f(x) = P(X=x)$&lt;br>$\sum_{x \in \Omega} f(x)=1$&lt;/td>
&lt;td class="tg-c3ow">Dichtefunktion&lt;br>$f(x): \mathbf{\Omega} \rightarrow \mathbb{R}^{+}$&lt;br>$f$ ist integrierbar&lt;br>$f(x) \geq 0 \quad \forall x \in \mathbb{R}$&lt;br>$\displaystyle \int_{-\infty}^{+\infty} f(x) \mathrm{d} x=1$&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td class="tg-c3ow">&lt;span style="font-style:normal">Verteilungsfunktion&lt;/span>&lt;/td>
&lt;td class="tg-c3ow">$F(x): \boldsymbol{\Omega} \rightarrow[\mathbf{0}, \mathbf{1}], X \in \mathbb{N}_{\mathbf{0}}$&lt;br>$F(x)= P(X \leq x) = \sum_{x_{i} \leq x} f\left(x_{i}\right)$&lt;/td>
&lt;td class="tg-c3ow">$F(x): \Omega \rightarrow[0,1], x \in \mathbb{R}$&lt;br>$F(x)=\int f(x) \mathrm{d} x, \quad f(x)=\frac{F(x)}{\mathrm{d} x}$&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
Note: Man schreibt für die *„Dichte“* einer diskreten Zufallsvariablen, deren Einzelwahrscheinlichkeiten $p_n = P(\boldsymbol{x} = x_n)$
gegeben sind, auch
$$
f_{\boldsymbol{x}}(x)=\sum_{n=1}^{\infty} \mathrm{P}\left(\boldsymbol{x}=x_{n}\right) \delta\left(x-x_{n}\right)=\sum_{n=1}^{\infty} p_{n} \delta\left(x-x_{n}\right),
$$
&lt;p>wobei $\delta(\cdot)$ die Delta-Distribution ist. Damit gilt sowohl für kontinuierliche als auch für diskrete Zufallsvariablen der Zusammenhang&lt;/p>
$$
\frac{d}{d_x} F_{\boldsymbol{x}}(x) = f_{\boldsymbol{x}}(x).
$$
&lt;h2 id="kenntwerte-von-zufallsvariablen">Kenntwerte von Zufallsvariablen&lt;/h2>
&lt;h3 id="erwartungswert">Erwartungswert&lt;/h3>
&lt;p>&lt;mark>&lt;strong>Erwartungswert&lt;/strong>&lt;/mark> (auch &lt;strong>Mittelwert&lt;/strong>) : der Durchschnitt, wenn ein Versuch unendlich oft durchgeführt wird&lt;/p>
$$
E_{f_X}\{X\} = \hat{X} = \mu_{X} = \int_{-\infty}^{\infty} x f_{X}(x) d x
$$
&lt;ul>
&lt;li>Notation: $\mu$, $E(X)$, $E\[X\]$, $E\\{X\\}$&lt;/li>
&lt;/ul>
&lt;h4 id="rechenregeln">Rechenregeln&lt;/h4>
$\mathrm{E}_{f_{X}}\{aX + b\}=a \mathrm{E}_{f_{X}}\{X\}+b$
&lt;details class="spoiler " id="spoiler-25">
&lt;summary class="cursor-pointer">Beweis&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
$$
\begin{array}{ll}
&amp;\mathrm{E}\_{f\_{X}}\\{a X+b\\} \\\\
=&amp;\int\_{-\infty}^{\infty}(a x+b) f\_{X}(x) \mathrm{d} x \\\\
=&amp;a \int\_{-\infty}^{\infty} x f\_{X}(x) \mathrm{d} x+b \int\_{-\infty}^{\infty} f\_{X}(x) \mathrm{d} x \\\\
=&amp;a \cdot \mathrm{E}\_{f_{X}}\\{X\\}+b \cdot 1
\end{array}
$$
&lt;/div>
&lt;/details>
&lt;p>Mehr Regeln:&lt;/p>
&lt;figure>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-07-04%2010.52.26.png"
alt="Basic expectation rules. (Source: kalmanfilter.net)">&lt;figcaption>
&lt;p>Basic expectation rules. (Source: &lt;a href="https://www.kalmanfilter.net/background2.html">kalmanfilter.net&lt;/a>)&lt;/p>
&lt;/figcaption>
&lt;/figure>
&lt;h3 id="k-te-moment">$k$-te Moment&lt;/h3>
&lt;p>Der Erwartungswert&lt;/p>
$$
\mathrm{E}_{f_X}\left\{X^{k}\right\}=\int_{-\infty}^{\infty} x^{k} f_{X}(x) \mathrm{d} x
$$
&lt;p>ist das &lt;mark>&lt;strong>$k$-te Moment&lt;/strong>&lt;/mark> der Zufallsvariable $X$.&lt;/p>
&lt;p>Der Erwartungswert&lt;/p>
$$
\mathrm{E}_{f_X}\left\{\left(X-\mathrm{E}\{X\}\right)^{k}\right\}=\int_{-\infty}^{\infty}\left(x-\mu_{X}\right)^{k} f_{X}(x) \mathrm{d} x
$$
&lt;p>ist das &lt;mark>&lt;strong>$k$-te zentrale Moment&lt;/strong>&lt;/mark> der Zufallsvariable $X$.&lt;/p>
&lt;h3 id="varianz">Varianz&lt;/h3>
&lt;p>&lt;strong>Varianz&lt;/strong> := die erwartete &lt;em>quadratische&lt;/em> Abweichung vom Erwartungswert&lt;/p>
$$
E_{f_X}\{(X - \mu_X)^2\} = \operatorname{Var}(X) = \sigma_X^2
$$
&lt;ul>
&lt;li>
&lt;p>das zweite zentrale Moment&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Je größer die Varianz, desto weiter streuen die Werte um $E(X)$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Notationen: $\sigma^2$, $\operatorname{Var}(X)$, $\operatorname{Var}\[X\]$&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h4 id="rechenregeln-1">Rechenregeln&lt;/h4>
$\operatorname{Var}_{f_X}\{aX+b\} = a^2 \operatorname{Var}_{f_X}\{X\}$
&lt;details class="spoiler " id="spoiler-31">
&lt;summary class="cursor-pointer">Beweis&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
$$
\begin{array}{l}
&amp;\operatorname{Var}\_{f\_{X}}\\{a X+b\\} \\\\
=&amp;\mathrm{E}\_{f\_{X}}\left\\{\left(a X+b-\mathrm{E}\_{f\_{X}}\\{a X+b\\}\right)^{2}\right\\} \\\\
=&amp;\mathrm{E}\_{f\_{X}}\left\\{\left(a X+b-\left(a \mu\_{X}+b\right)\right)^{2}\right\\}\\\\
=&amp;\mathrm{E}\_{f\_{X}}\left\\{\left(a\left(X-\mu\_{X}\right)\right)^{2}\right\\} \\\\
=&amp;\int\_{-\infty}^{\infty}\left(a\left(X-\mu\_{X}\right)\right)^{2} f\_{X}(x) \mathrm{d} x \\\\
=&amp;a^{2} \int\_{-\infty}^{\infty}\left(X-\mu\_{X}\right)^{2} f\_{X}(x) \mathrm{d} x \\\\
=&amp;a^{2} \mathrm{E}\_{f\_{X}}\left\\{\left(X-\mu\_{X}\right)^{2}\right\\} \\\\
=&amp;a^{2} \operatorname{Var}\_{f\_{X}}\\{X\\}
\end{array}
$$
&lt;/div>
&lt;/details>
&lt;/br>
$\operatorname{Var}_{f_{X}}\{X\}=\mathrm{E}_{f_{X}}\left\{X^{2}\right\}-\left(\mathrm{E}_{f_{X}}\{X\}\right)^{2}$
&lt;details class="spoiler " id="spoiler-33">
&lt;summary class="cursor-pointer">Beweis&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
$$
\begin{aligned}
\operatorname{Var}\_{f\_{X}}\\\{X\\}=&amp; \int\_{-\infty}^{\infty}\left(x-\mathrm{E}\_{f\_{X}}\\{X\\}\right)^{2} f\_{X}(x) \mathrm{d} x \\\\
=&amp; \int\_{-\infty}^{\infty}\left(x-\mu\_{X}\right)^{2} f\_{X}(x) \mathrm{d} x \\\\
=&amp; \int\_{-\infty}^{\infty}\left(x^{2}-2 x \mu\_{X}+\mu\_{X}^{2}\right) f\_{X}(x) \mathrm{d} x \\\\
=&amp; \int\_{-\infty}^{\infty} x^{2} f\_{X}(x) \mathrm{d} x-2 \mu\_{X} \int\_{-\infty}^{\infty} x f\_{X}(x) \mathrm{d} x+\mu\_{X}^{2} \int\_{-\infty}^{\infty} f\_{X}(x) \mathrm{d} x \\\\
=&amp; \mathrm{E}\_{f\_{X}}\left\\{X^{2}\right\\}-2 \mu\_{X} \mathrm{E}\_{f\_{X}}\\{X\\}+\mu\_{X}^{2} \cdot 1 \\\\
=&amp; \mathrm{E}\_{f\_{X}}\left\\{X^{2}\right\\}-2 \mu\_{X} \mu\_{X}+\mu\_{X}^{2} \cdot 1 \\\\
=&amp; \mathrm{E}\_{f\_{X}}\left\\{X^{2}\right\\}-\mu\_{X}^{2}
\end{aligned}
$$
&lt;/div>
&lt;/details>
&lt;p>Mehr Regeln:&lt;/p>
&lt;figure>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-07-04%2010.55.30.png"
alt="Basic variance and covariance rules. (Source: kalmanfilter.net)">&lt;figcaption>
&lt;p>Basic variance and covariance rules. (Source: &lt;a href="https://www.kalmanfilter.net/background2.html">kalmanfilter.net&lt;/a>)&lt;/p>
&lt;/figcaption>
&lt;/figure>
&lt;details class="spoiler " id="spoiler-35">
&lt;summary class="cursor-pointer">Beweis für Regel 10&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-07-04%2010.57.26.png" alt="截屏2022-07-04 10.57.26">
&lt;/div>
&lt;/details>
&lt;details class="spoiler " id="spoiler-36">
&lt;summary class="cursor-pointer">Beweis für Regel 11&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-07-04%2010.57.54.png" alt="截屏2022-07-04 10.57.54">
&lt;/div>
&lt;/details>
&lt;details class="spoiler " id="spoiler-37">
&lt;summary class="cursor-pointer">Beweis für Regel 13&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-07-04%2010.59.10.png" alt="截屏2022-07-04 10.59.10">
&lt;/div>
&lt;/details>
&lt;details class="spoiler " id="spoiler-38">
&lt;summary class="cursor-pointer">Beweis für Regel 14&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-07-04%2010.59.30.png" alt="截屏2022-07-04 10.59.30">
&lt;/div>
&lt;/details>
&lt;h3 id="standardabweichung">Standardabweichung&lt;/h3>
&lt;p>&lt;strong>Standardabweichung&lt;/strong>: Streumaß, das die selbe Einheit wie $X$ hat&lt;/p>
$$
\sigma=\sqrt{\operatorname{Var}(X)}
$$
&lt;p>Groß $\sigma$ $\rightarrow$ große Streuung&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/Section2Module7HighLowStandardDeviation.jpg" alt="Standard Deviation" style="zoom:75%;" />
&lt;style type="text/css">
.tg {border-collapse:collapse;border-spacing:0;}
.tg td{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;
overflow:hidden;padding:10px 5px;word-break:normal;}
.tg th{border-color:black;border-style:solid;border-width:1px;font-family:Arial, sans-serif;font-size:14px;
font-weight:normal;overflow:hidden;padding:10px 5px;word-break:normal;}
.tg .tg-c3ow{border-color:inherit;text-align:center;vertical-align:top}
.tg .tg-7btt{border-color:inherit;font-weight:bold;text-align:center;vertical-align:top}
&lt;/style>
&lt;table class="tg">
&lt;thead>
&lt;tr>
&lt;th class="tg-c3ow">Zufalls-&lt;br>variable&lt;/th>
&lt;th class="tg-7btt">&lt;span style="font-style:normal">Diskret&lt;/span>&lt;/th>
&lt;th class="tg-7btt">&lt;span style="font-style:normal">Stetig&lt;/span>&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td class="tg-7btt">Erwartungswert&lt;br>($\mu$, $E(x)$)&lt;/td>
&lt;td class="tg-c3ow">$\sum_{i \in \Omega} x_{i} \cdot p_{i}$&lt;/td>
&lt;td class="tg-c3ow">$\int_{-\infty}^{+\infty} x \cdot f(x) \mathrm{d} x$&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td class="tg-7btt">Varianz&lt;br>($\sigma^2$, $Var(x)$)&lt;/td>
&lt;td class="tg-c3ow">$\sum_{i \in \Omega}\left(x_{i}-\mu\right)^{2} \cdot p_{i}$&lt;/td>
&lt;td class="tg-c3ow">$\int_{-\infty}^{+\infty}(x-\mu)^{2} \cdot f(x) \mathrm{d} x$&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td class="tg-7btt">Standardabweichung&lt;br>($\sigma$)&lt;/td>
&lt;td class="tg-c3ow">$\sqrt{Var(x)}$&lt;/td>
&lt;td class="tg-c3ow">&lt;span style="font-weight:400;font-style:normal">$\sqrt{Var(x)}$&lt;/span>&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;h3 id="normalverteilte-zufallsvariable">Normalverteilte Zufallsvariable&lt;/h3>
&lt;p>Ein &lt;mark>&lt;strong>normalverteilte Zufallsvariable&lt;/strong>&lt;/mark> $X$ hat die Dichte&lt;/p>
$$
f_{X}(x)=\mathcal{N}\left(x-\mu, \sigma^{2}\right)=\frac{1}{\sqrt{2 \pi} \sigma} e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^{2}}
$$
&lt;p>Ihr $k$-tes zentrales Moment ist allgemein&lt;/p>
$$
\mathrm{E}_{f_{X}}\left\{(X-\mu)^{k}\right\}=\left\{\begin{array}{ll}
1 \cdot 3 \cdot 5 \cdots(k-1) \sigma^{k} &amp; \text { falls } k \text { gerade } \\
0 &amp; \text { falls } k \text { ungerade }
\end{array}\right.
$$
&lt;p>Die Normalverteilung ist also vollständig durch $\mu$ und $\sigma$ charakterisiert.&lt;/p>
&lt;h3 id="standardisierte-zufallsvariable">Standardisierte Zufallsvariable&lt;/h3>
&lt;p>Eine Zufallsvariable $X$ mit dem Erwartungswert $\mu_X = E_{f_X}\{X\}$ und der Varianz $\sigma_X^2$ wird durch&lt;/p>
$$
Y = \frac{X - \mu_X}{\sigma_X}
$$
&lt;p>in eine &lt;mark>&lt;strong>standardisierte Zufallsvariable&lt;/strong>&lt;/mark> $Y$, die den Erwartungswert 0 und die Varianz 1 besitzt, transformiert.&lt;/p>
&lt;h3 id="modalwert-quantil-median">Modalwert, Quantil, Median&lt;/h3>
&lt;p>Ein Wert, für den die Dichtefunktion $f_X(x)$ ein lokales Maximum annimmt, heißt &lt;mark>&lt;strong>Modalwert&lt;/strong>&lt;/mark> der stetigen Zufallsvariablen $X$.&lt;/p>
&lt;p>Ein Wert $x_p$, der den Ungleichungen&lt;/p>
$$
P(X &lt; x_p) \leq p, \quad P(X > x_p) \leq 1 - p \quad (0 &lt; p &lt; 1)
$$
&lt;p>genügt, heißt &lt;mark>&lt;strong>$p$-tes Quantil&lt;/strong>&lt;/mark>.&lt;/p>
&lt;ul>
&lt;li>Für eine stetige Zufallsvariable X ist ein $p$-tes Quantil $x_p$ gegeben durch $F_X(x_p) = p$&lt;/li>
&lt;li>Ein Quantil der Ordnung $p=\frac{1}{2}$ heißt &lt;mark>&lt;strong>Median&lt;/strong>&lt;/mark> der Zufallsvariable $X$&lt;/li>
&lt;li>Für normalverteilte Zufallsvariablen fallen Erwartungswert, Modalwert und Median zusammen.&lt;/li>
&lt;/ul>
&lt;h2 id="reference">Reference&lt;/h2>
&lt;ul>
&lt;li>
&lt;p>Wahrscheinlichkeits-, Dichte- und Verteilungsfunktion diskreter und stetiger Zufallsvariablen&lt;/p>
&lt;div style="position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;">
&lt;iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen="allowfullscreen" loading="eager" referrerpolicy="strict-origin-when-cross-origin" src="https://www.youtube.com/embed/_lq7zfecSpw?autoplay=0&amp;controls=1&amp;end=0&amp;loop=0&amp;mute=0&amp;start=0" style="position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;" title="YouTube video"
>&lt;/iframe>
&lt;/div>
&lt;/li>
&lt;li>
&lt;p>Erwartungswert&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Kenngrößen (Momente) von Zufallsvariablen I: Erwartungswert, Varianz, Standardabweichung&lt;/p>
&lt;div style="position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;">
&lt;iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen="allowfullscreen" loading="eager" referrerpolicy="strict-origin-when-cross-origin" src="https://www.youtube.com/embed/KKr-aLFrSVA?autoplay=0&amp;controls=1&amp;end=0&amp;loop=0&amp;mute=0&amp;start=0" style="position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;" title="YouTube video"
>&lt;/iframe>
&lt;/div>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul></description></item><item><title>Zweidimensionale Zufallsvariable</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/2_dim_zufallsvaraible/</link><pubDate>Sun, 05 Jun 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/2_dim_zufallsvaraible/</guid><description>&lt;h2 id="verteilungsfunktion-und-dichte">Verteilungsfunktion und Dichte&lt;/h2>
&lt;p>Eine vektorwertige Funktion&lt;/p>
$$
\underline{X}=\underline{X}(\omega): \Omega \rightarrow \mathbb{R}^{2}
$$
&lt;p>die jedem Ergebnis $\omega \in \Omega$ einen Vektor $\underline{x}=\left[\begin{array}{l}x_{1} \\ x_{2}\end{array}\right]$ zuordnet, heißt &lt;mark>&lt;strong>mehrdimensionale Zufallsvariable&lt;/strong>&lt;/mark>, wenn das Urbild eines jeden Intervalls $I_{\underline{a}}=\left(-\infty, a_{1}\right] \times\left(-\infty, a_{2}\right] \subset \mathbb{R}^{2}$ ein Ereignis ist&lt;/p>
$$
X^{-1}\left(I_{a}\right) \in \mathfrak{B}, \quad \forall \underline{a} \in \mathbb{R}^{2}.
$$
&lt;h3 id="verteilungsfunktion">Verteilungsfunktion&lt;/h3>
&lt;p>Die Funktion&lt;/p>
$$
\begin{aligned}
F_{\underline{X}}(\underline{x}) &amp;=F_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right) \\
&amp;=\mathrm{P}\left(X_{1} \leq x_{1}, X_{2} \leq x_{2}\right)
\end{aligned}
$$
&lt;p>der zweidimensionalen Zufallsvariablen $\underline{X}$ heißt &lt;mark>&lt;strong>Verteilungsfunktion&lt;/strong>&lt;/mark> von $\underline{X}$.&lt;/p>
&lt;h3 id="dichte">Dichte&lt;/h3>
&lt;p>Die &lt;mark>&lt;strong>Dichte&lt;/strong>&lt;/mark> der zweidimensionalen Zufallsvariablen $\underline{X}$: partielle Ableitungen der Verteilungsfunktion $F_{\underline{X}}(\underline{x})$&lt;/p>
$$
f_{\underline{X}}(\underline{x})=f_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)=\frac{\partial^{2}}{\partial x_{1} \partial x_{2}} F_{X_{1}, X_{2}}\left(x_{1}, x_{2}\right)
$$
&lt;p>Sind beide Komponenten diskret verteilt, schreibt man für deren „Dichte“&lt;/p>
$$
f_{\underline{X}}(\underline{x})=\sum_{n=1}^{\infty} \sum_{k=1}^{\infty} \mathrm{P}\left(X_{1}=x_{1, n}, X_{2}=x_{2, k}\right) \cdot \delta\left(x_{1}-x_{1, n}, x_{2}-x_{2, k}\right)
$$
&lt;p>mit der zweidimensionalen $\delta$- Distribution $\delta(x_1, x_2)$ und den Einzelwahrscheinlichkeiten $\mathrm{P}\left(X_{1}=x_{1, n}, X_{2}=x_{2, k}\right)$.&lt;/p>
&lt;h2 id="randdichten-und-bedingte-dichten">Randdichten und bedingte Dichten&lt;/h2>
&lt;p>$\underline{X}$ sei eine zweidimensionale Zufallsvariable mit der Dichte $f(\underline{X})=f_{\underline{X}}\left(x_{1}, x_{2}\right)$. Dann heißen&lt;/p>
$$
\begin{array}{l}
f_{X_{1}}\left(x_{1}\right)=\int_{-\infty}^{\infty} f_{\underline{X}}\left(x_{1}, x_{2}\right) \mathrm{d} x_{2} \\
f_{X_{2}}\left(x_{2}\right)=\int_{-\infty}^{\infty} f_{\underline{X}}\left(x_{1}, x_{2}\right) \mathrm{d} x_{1}
\end{array}
$$
&lt;p>&lt;mark>&lt;strong>Randdichten&lt;/strong>&lt;/mark> von $X$.&lt;/p>
&lt;p>$X$ sei eine zweidimensionale Zufallsvariable mit der Dichte $f_X(x_1, x_2)$ und es gelte $f_{X_1}(x_1) > 0$ und $f_{X_2}(x_2) > 0$ . Dann heißt&lt;/p>
$$
f_{X_{1}}\left(x_{1} \mid X_{2}=x_{2}\right)=\frac{f_{\underline{X}}\left(x_{1}, x_{2}\right)}{f_{X_{2}}\left(x_{2}\right)}
$$
&lt;p>die &lt;mark>&lt;strong>bedingte Dichte&lt;/strong>&lt;/mark> von $X_1$ unter der Bedingung $X_2 = x_2$.&lt;/p>
$$
f_{X_{2}}\left(x_{2} \mid X_{1}=x_{1}\right)=\frac{f_{\underline{X}}\left(x_{1}, x_{2}\right)}{f_{X_{1}}\left(x_{1}\right)}
$$
&lt;p>ist die bedingte Dichte von $X_2$ unter der Bedingung $X_1 = x_1$.&lt;/p>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">&lt;p>&lt;strong>Formel von der totalen Wahrscheinlichkeit für Dichten&lt;/strong>&lt;/p>
$$
f\_{X\_{1}}\left(x\_{1}\right)=\int\_{-\infty}^{\infty} f\_{X\_{1}}\left(x\_{1} \mid X\_{2}=x_{2}\right) f\_{X\_{2}}\left(x\_{2}\right) \mathrm{d} x\_{2}
$$&lt;/span>
&lt;/div>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">&lt;p>&lt;strong>Satz von Bayes für Dichten&lt;/strong>&lt;/p>
$$
f\_{X\_{2}}\left(x\_{2} \mid X\_{1}=x\_{1}\right)=\frac{f\_{X\_{1}}\left(x\_{1} \mid X\_{2}=x\_{2}\right) f\_{X\_{2}}\left(x\_{2}\right)}{\int\_{-\infty}^{\infty} f\_{X\_{1}}\left(x\_{1} \mid X\_{2}=x\_{2}\right) f\_{X\_{2}}\left(x\_{2}\right) \mathrm{d} x\_{2}}
$$&lt;/span>
&lt;/div>
&lt;p>Der &lt;mark>&lt;strong>bedingte Erwartungswert&lt;/strong>&lt;/mark> einer Zufallsvariablen $X_1$ unter der Bedingung $X_2 = x_2$ ist&lt;/p>
$$
\mathrm{E}_{f_{\underline{\underline{x}}}}\left\{X_{1} \mid X_{2}=x_{2}\right\}=\int_{-\infty}^{\infty} x_{1} f_{X_{1}}\left(x_{1} \mid X_{2}=x_{2}\right) \mathrm{d} x_{1}
$$
&lt;h2 id="unabhangigkeit-von-zufallsvariablen">Unabhängigkeit von Zufallsvariablen&lt;/h2>
&lt;p>Zwei Zufallsvariablen $X, Y$ heißen &lt;mark>&lt;strong>unabhängig&lt;/strong>&lt;/mark> , wenn gilt&lt;/p>
$$
f_{X, Y}(x, y)=f_{X}(x) \cdot f_{Y}(y)
$$
&lt;p>Damit gilt auch&lt;/p>
$$
f_{X}(x \mid Y=y)=f_{X}(x)
$$
&lt;p>&lt;strong>Erwartungswert&lt;/strong> für zweidimensionale Zufallsvariablen:&lt;/p>
$$
\mathrm{E}_{f_{X, Y}}\{g(X, Y)\}=\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} g(x, y) f_{X, Y}(x, y) \mathrm{d} x \mathrm{~d} y
$$
&lt;p>Die &lt;strong>Kovarianz&lt;/strong> $\sigma_{X, Y}=\operatorname{Cov}_{\boldsymbol{f}_{X, Y}}\{X, Y\}$
von zwei Zufallsvariablen $X$ und $Y$ ist&lt;/p>
$$
\sigma_{X, Y}=\operatorname{Cov}_{f_{X, Y}}\{X, Y\}=\mathrm{E}\{(X-\mathrm{E}\{X\}) \cdot(Y-\mathrm{E}\{Y\})\}=\mathrm{E}\left\{\left(X-\mu_{x}\right) \cdot\left(Y-\mu_{y}\right)\right\}
$$
&lt;p>Der &lt;strong>Korrelationskoeffizient&lt;/strong> von $X$ und $Y$:&lt;/p>
$$
\rho_{X, Y}=\frac{\operatorname{Cov}_{f_{X, Y}}\{X, Y\}}{\sqrt{\operatorname{Var}_{f_{X}}\{X\} \operatorname{Var}_{f_{Y}}\{Y\}}}=\frac{\sigma_{X, Y}}{\sigma_{X} \cdot \sigma_{Y}} \in [-1, 1]
$$
&lt;ul>
&lt;li>stellt ein &lt;em>Ähnlichkeitsmaß&lt;/em> der Zufallsvariablen $X$ und $Y$ dar
&lt;ul>
&lt;li>$\left|\rho_{X, Y}\right|=1$: $X$ und $Y$ sind maximal ähnlich&lt;/li>
&lt;li>$\left|\rho_{X, Y}\right|=0$: $X$ und $Y$ sind komplett unähnlich (&lt;em>i.e.&lt;/em>, $X$ und $Y$ sind &lt;strong>unkorreliert&lt;/strong>)
&lt;ul>
&lt;li>Unabhängige Zufallsvariablen sind unkorreliert. (Die Umkehrung dieser Aussage gilt im allgemeinen NICHT!)&lt;/li>
&lt;li>Haben $X$ und $Y$ eine Normalevwrteilung und hat $[X, Y]^\top$ eine zweidimensionale Normalverteilung, folgt aus Unkorreliertheit $\rho_{X, Y} = 0$ auch die Unabhängigkeit von $X$ und $Y$&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;p>Ist $\underline{X}=\left\{X_{1}, X_{2}, \ldots, X_{N}\right\}^{\top}$
ein $N$-dimensional Zufallsvektor, seine &lt;strong>Kovarianzmatrix&lt;/strong> ist&lt;/p>
$$
\begin{array}{l}
\operatorname{Cov}_{f_{\underline{x}}}\{\underline{X}\}=\mathrm{E}_{f_{\underline{\underline{x}}}}\left\{(\underline{X}-\underline{\mu})(\underline{X}-\underline{\mu})^{\top}\right\}\\
\newline
=\left[\begin{array}{cccc}
\operatorname{Var}_{X_{1}}\left\{X_{1}\right\} &amp; \operatorname{Cov}_{X_{1}, X_{2}}\left\{X_{1}, X_{2}\right\} &amp; \cdots &amp; \operatorname{Cov}_{X_{1}, X_{N}}\left\{X_{1}, X_{N}\right\} \\
\operatorname{Cov}_{X_{2}, X_{1}}\left\{X_{2}, X_{1}\right\} &amp; \operatorname{Var}_{X_{2}}\left\{X_{2}\right\} &amp; \cdots &amp; \mathrm{Cov}_{X_{2}, X_{N}}\left\{X_{2}, X_{N}\right\} \\
\vdots &amp; \vdots &amp; \ddots &amp; \vdots \\
\operatorname{Cov}_{X_{N}, X_{1}}\left\{X_{N}, X_{1}\right\} &amp; \operatorname{Cov}_{X_{N}, X_{2}}\left\{X_{N}, X_{2}\right\} &amp; \cdots &amp; \operatorname{Var}_{X_{N}}\left\{X_{N}\right\}
\end{array}\right]\\
\newline
=\left[\begin{array}{cccc}
\sigma_{X_{1}}^{2} &amp; \rho_{X_{1}, X_{2}} \sigma_{X_{1}} \sigma_{X_{2}} &amp; \cdots &amp; \rho_{X_{1}, X_{N}} \sigma_{X_{1}} \sigma_{X_{N}} \\
\rho_{X_{2}, X_{1}} \sigma_{X_{2}} \sigma_{X_{1}} &amp; \sigma_{X_{2}}^{2} &amp; \cdots &amp; \rho_{X_{2}, X_{N}} \sigma_{X_{2}} \sigma_{X_{N}} \\
\vdots &amp; \vdots &amp; \ddots &amp; \vdots \\
\rho_{X_{N}, X_{1}} \sigma_{X_{N}} \sigma_{X_{1}} &amp; \rho_{X_{N}, X_{2}} \sigma_{X_{N}} \sigma_{X_{2}} &amp; \cdots &amp; \sigma_{X_{N}}^{2}
\end{array}\right]
\end{array}
$$
&lt;details class="spoiler " id="spoiler-19">
&lt;summary class="cursor-pointer">Detail&lt;/summary>
&lt;div class="rounded-lg bg-neutral-50 dark:bg-neutral-800 p-2">
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-06-05%2018.47.05.png" alt="截屏2022-06-05 18.47.05">
&lt;/div>
&lt;/details>
&lt;p>Eine Kovarianzmatrix ist stets &lt;strong>symmetrisch&lt;/strong> und &lt;strong>positiv &lt;a href="https://de.wikipedia.org/wiki/Definitheit">definit&lt;/a>&lt;/strong> (oder positiv semidefinit).&lt;/p></description></item><item><title>Differenzierensregeln für Matrizen</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/matrix_differenzieren/</link><pubDate>Fri, 17 Jun 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/matrix_differenzieren/</guid><description>&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">&lt;p>Für eine Matrix $\mathbf{C}$ gilt&lt;/p>
$$
\frac{\partial}{\partial \mathbf{C}}\left(\underline{a}^{\top} \cdot \mathbf{C} \cdot \underline{b}\right)=\underline{a} \cdot \underline{b}^{\top}
$$&lt;/span>
&lt;/div>
&lt;p>Beispiel&lt;/p>
$$
Q=\underbrace{\left[\begin{array}{ll}
a_{1} &amp; a_{2}
\end{array}\right]}_{\boldsymbol{a}^\top}\left[\begin{array}{ll}
c_{11} &amp; c_{12} \\
c_{21} &amp; c_{22}
\end{array}\right]\underbrace{\left[\begin{array}{l}
b_{1} \\
b_{2}
\end{array}\right]}_{\boldsymbol{b}}=a_{1} b_{1} \cdot c_{11}+a_{2} b_{1} c_{21}+a_{1} b_{2} c_{12}+a_{2} b_{2} c_{22} = \boldsymbol{a} \cdot \boldsymbol{b}^\top
$$
$$
\frac{\partial Q}{\partial \mathbf{C}}=\left[\begin{array}{ll}
\frac{\partial Q}{\partial C_{12}} &amp; \frac{\partial Q}{\partial C_{12}} \\
\frac{\partial Q}{\partial C_{21}} &amp; \frac{\partial Q}{\partial C_{22}}
\end{array}\right]=\left[\begin{array}{ll}
a_{1} b_{1} &amp; a_{1} b_{2} \\
a_{2} b_{1} &amp; a_{2} b_{2}
\end{array}\right]=\left[\begin{array}{l}
a_{1} \\
a_{2}
\end{array}\right]\left[\begin{array}{ll}
b_{1} &amp; b_{2}
\end{array}\right]
$$
&lt;p>Für eine symmetrische Matrix $\mathbf{C}$:&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Mit $\underline{a}=\underline{e}$ und $\underline{b} = D \cdot \underline{e}$:&lt;/p>
$$
\frac{\partial}{\partial \mathbf{C}} (\underline{e}^\top \mathbf{C} D \underline{e}) = \underline{e} \cdot \underline{e}^\top \cdot D^\top
$$
&lt;/li>
&lt;li>
&lt;p>Mit $\underline{a}=D \cdot \underline{e}$ und $\underline{b} = \underline{e}$:&lt;/p>
$$
\frac{\partial}{\partial \mathbf{C}} (\underline{e}^\top D^\top \mathbf{C} \underline{e}) = D\cdot \underline{e}\cdot \underline{e}^\top
$$
&lt;/li>
&lt;/ul>
&lt;div class="flex px-4 py-3 mb-6 rounded-md bg-primary-100 dark:bg-primary-900">
&lt;span class="pr-3 pt-1 text-primary-600 dark:text-primary-300">
&lt;svg height="24" xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24">&lt;path fill="none" stroke="currentColor" stroke-linecap="round" stroke-linejoin="round" stroke-width="1.5" d="m11.25 11.25l.041-.02a.75.75 0 0 1 1.063.852l-.708 2.836a.75.75 0 0 0 1.063.853l.041-.021M21 12a9 9 0 1 1-18 0a9 9 0 0 1 18 0m-9-3.75h.008v.008H12z"/>&lt;/svg>
&lt;/span>
&lt;span class="dark:text-neutral-300">$$
\frac{\partial}{\partial \mathbf{K}}\left(\boldsymbol{a}^{\top} \cdot \mathbf{K} \cdot \mathbf{C} \cdot \mathbf{K}^{\top} \boldsymbol{b} \right)=\boldsymbol{a} \boldsymbol{b}^{\top} \mathbf{K} \mathbf{C}^{\top}+\boldsymbol{b} \boldsymbol{a}^{\top} \mathbf{K} \mathbf{C}
$$
&lt;/span>
&lt;/div>
&lt;p>Seien $\boldsymbol{a} = \boldsymbol{e}, \boldsymbol{b} = \boldsymbol{e}$, $\mathbf{C}$ symmetrisch, dann gilt&lt;/p>
$$
\frac{\partial}{\partial \mathbf{K}}\left(\boldsymbol{e}^{\top} \cdot \mathbf{K} \cdot \mathbf{C} \cdot \mathbf{K}^{\top} \boldsymbol{e} \right)=\boldsymbol{e} \boldsymbol{e}^{\top} \mathbf{K} \mathbf{C}^{\top}+\boldsymbol{e} \boldsymbol{e}^{\top} \mathbf{K} \mathbf{C} = 2\boldsymbol{e} \boldsymbol{e}^{\top} \mathbf{K} \mathbf{C}
$$</description></item><item><title>HMM und Wonham Filter</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/hmm_und_wonham_filter/</link><pubDate>Wed, 29 Jun 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/hmm_und_wonham_filter/</guid><description>&lt;p>Das &lt;strong>Hidden Markov Model (HMM)&lt;/strong> ist ein &lt;a href="https://de.wikipedia.org/wiki/Stochastik">stochastisches&lt;/a> &lt;a href="https://de.wikipedia.org/wiki/Mathematisches_Modell">Modell&lt;/a>, in dem ein System durch eine &lt;a href="https://de.wikipedia.org/wiki/Markowkette">Markowkette&lt;/a> mit unbeobachteten Zuständen modelliert wird.&lt;/p>
&lt;blockquote>
&lt;p>Die Modellierung als Markowkette bedeutet, dass das System auf zufällige Weise von einem Zustand in einen anderen übergeht, wobei die &lt;a href="https://de.wikipedia.org/wiki/%C3%9Cbergangswahrscheinlichkeit">Übergangswahrscheinlichkeiten&lt;/a> nur jeweils vom aktuellen Zustand abhängen, aber nicht von den davor eingenommenen Zuständen.&lt;/p>
&lt;/blockquote>
&lt;p>Ein HMM besteht aus&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Systemmodell / Übergangswahrscheinlichkeiten / Transitionsmatrix $\mathbf{A}$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Messmodell / Emissionswahrscheinlichkeiten / Messmatrix $\mathbf{B}$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Zustandsraum; Zustandswahrscheinlichkeiten $\xi_{k}^{\boldsymbol{x}}$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Messungen; Emissionswahrscheinlichkeiten $\xi_{k}^{\boldsymbol{y}}$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Initialer Zustand $x_0$ oder initiale Zustandswahrscheinlichkeit $\xi_{0}^{\boldsymbol{x}}$&lt;/p>
&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>Beispiel (Übungsblatt 4.2)&lt;/strong>&lt;/p>
&lt;p>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-06-29%2015.45.15.png" alt="截屏2022-06-29 15.45.15">&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Zustandsraum&lt;/p>
$$
\begin{aligned}
S &amp;=\{\text { Sonniger Tag }\} \\
R &amp;=\{\text { Regnerischer Tag }\} \\
N &amp;=\{\text { Nebliger Tag }\}
\end{aligned}
$$
&lt;/li>
&lt;li>
&lt;p>Zustandsvektor&lt;/p>
$$
\xi_{k}^{\boldsymbol{x}}=\left[\begin{array}{l}
\mathrm{P}\left(\boldsymbol{x}_{k}=S\right) \\
\mathrm{P}\left(\boldsymbol{x}_{k}=R\right) \\
\mathrm{P}\left(\boldsymbol{x}_{k}=N\right)
\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>Transiitonsmatrix&lt;/p>
$$
\mathbf{A}=\left[\begin{array}{lll}
0.7 &amp; 0.2 &amp; 0.1 \\
0.2 &amp; 0.6 &amp; 0.2 \\
0.4 &amp; 0.3 &amp; 0.3
\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>Messwerte&lt;/p>
$$
\begin{array}{l}
d=\{\text { dreckige Schuhe }\} \\
s=\{\text { saubere Schuhe }\}
\end{array}
$$
&lt;/li>
&lt;li>
&lt;p>Messvektor&lt;/p>
$$
\underline{\xi}_{k}^{\boldsymbol{y}}=\left[\begin{array}{l}
\mathrm{P}\left(\boldsymbol{z}_{k}=d\right) \\
\mathrm{P}\left(\boldsymbol{z}_{k}=s\right)
\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>Messmatrix&lt;/p>
$$
\mathbf{B}=\left[\begin{array}{ll}
0.1 &amp; 0.9 \\
0.8 &amp; 0.2 \\
0.4 &amp; 0.6
\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>Initiale Zustandswahrscheinlichkeit $\xi_{0}^{\boldsymbol{x}}$ und initialer Zustand $x_0$&lt;/p>
$$
\underline{\xi}_{0}^{\boldsymbol{x}}=\left[\begin{array}{l}
1 \\
0 \\
0
\end{array}\right] ; \quad x_{0}=S
$$
&lt;/li>
&lt;/ul>
&lt;p>Modell als Zustandsdiagramm mit Übergangswahrscheinlichkeiten&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/wertdiskrete_systeme-HMM.drawio.png" alt="wertdiskrete_systeme-HMM.drawio" style="zoom:80%;" />
&lt;h2 id="wonham-filter">Wonham-Filter&lt;/h2>
&lt;p>Das Wonham Filter ist ein rekursives Filter für Zustandschätzung für wertdiskrete Systeme.&lt;/p>
&lt;p>Das Wonham Filter besteht aus zwei Phasen&lt;/p>
&lt;ol>
&lt;li>
&lt;p>Prädiktion&lt;/p>
$$
\underline{\xi}_{k \mid 1: k-1}^{x}=\mathbf{A}_{k}^{\top} \underline{\xi}_{k-1\mid1: k-1}^{x}
$$
&lt;ul>
&lt;li>$\mathbf{A}_k$
: Transitionsmatrix&lt;/li>
&lt;li>$\underline{\xi}_{k-1\mid1: k-1}^{x}$
: letzte Zustandsschätzung&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>Filterung&lt;/p>
&lt;p>Für Messung $y_k = m$:&lt;/p>
$$
\underline{\xi}_{k \mid 1: k}^{x} =\frac{\mathbf{B}(:, m) \odot \xi_{k \mid 1: k-1}^{x}}{\mathbb{1}_{N}^{T} \operatorname{diag}(\mathbf{B}(:, m)) \cdot \xi_{k \mid 1: k-1}^{x}} =\frac{\mathbf{B}(:, m) \odot \xi_{k \mid 1: k-1}^{x}}{\mathbf{B}(:, m)^\top \cdot \xi_{k \mid 1: k-1}^{x}}
$$
&lt;/li>
&lt;/ol>
&lt;p>(Mehr über Wonham filter siehe &lt;a href="https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/wertdiskrete_systeme/zustandsschaetzung/#zustandsschätzung">hier&lt;/a>)&lt;/p>
&lt;p>&lt;strong>Beispiel (weiter)&lt;/strong>&lt;/p>
&lt;p>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-06-29%2016.05.37.png" alt="截屏2022-06-29 16.05.37">&lt;/p>
&lt;p>Zeitpunkt $k=1$:&lt;/p>
$$
\begin{array}{l}
\underline{\xi}_{1}^{p}=\mathbf{A}^{\top} \underline{\xi}_{0}^{\boldsymbol{x}}=\left[\begin{array}{l}
0.7 \\
0.2 \\
0.1
\end{array}\right] \\\\
\underline{\xi}_{1}^{e}=\frac{\mathbf{B}(:, 1) \odot \underline{\xi}_{1}^{p}}{\mathbf{B}(:, 1)^{\top} \underline{\xi}_{1}^{p}}=\frac{\left[\begin{array}{l}
0.1 \\
0.8 \\
0.4
\end{array}\right] \odot\left[\begin{array}{l}
0.7 \\
0.2 \\
0.1
\end{array}\right]}{\left[\begin{array}{lll}
0.1 &amp; 0.8 &amp; 0.4
\end{array}\right]\left[\begin{array}{l}
0.7 \\
0.2 \\
0.1
\end{array}\right]}=\frac{\left[\begin{array}{l}
0.07 \\
0.16 \\
0.04
\end{array}\right]}{0.27}=\left[\begin{array}{l}
0.25926 \\
0.59259 \\
0.14815
\end{array}\right]
\end{array}
$$
&lt;p>$P(\boldsymbol{x}_1 = R) = 0.59259$ ist die größst in $\underline{\xi}_{1}^{e}$. $\Rightarrow$ Die Schätzung deutet auf einen regnerischen Tag.&lt;/p>
&lt;p>Zeitpunkt $k=2$:&lt;/p>
$$
\begin{aligned}
\underline{\xi}_{2}^{p} &amp;=\mathbf{A}^{\top} \underline{\xi}_{1}^{e}=\left[\begin{array}{l}
0.35926 \\
0.45185 \\
0.18889
\end{array}\right] \\
\underline{\xi}_{2}^{e} &amp;=\frac{\mathbf{B}(:, 1) \odot \xi_{2}^{p}}{\mathbf{B}(:, 1)^{\top} \xi_{2}^{p}}=\left[\begin{array}{l}
0.07596 \\
0.76429 \\
0.15975
\end{array}\right]
\end{aligned}
$$
&lt;p>$\Rightarrow$ Die Schätzung deutet auf einen regnerischen Tag.&lt;/p>
&lt;p>Zeitpunkt $k=3$:&lt;/p>
$$
\underline{\xi}_{3}^{p}=\mathbf{A}^{\top} \underline{\xi}_{2}^{e}=\left[\begin{array}{l}
0.26993 \\
0.52169 \\
0.20838
\end{array}\right]
$$
$$
\xi_{3}^{e}=\frac{\mathbf{B}(:, 2) \odot \xi_{3}^{p}}{\mathbf{B}(:, 2)^{\top} \xi_{3}^{p}}=\left[\begin{array}{l}
0.51437 \\
0.22091 \\
0.26472
\end{array}\right]
$$
&lt;p>$\Rightarrow$ Die Schätzung deutet auf einen sonnigen Tag.&lt;/p>
&lt;p>Zeitpunkt $k=4$:&lt;/p>
$$
\begin{array}{l}
\underline{\xi}_{4}^{p}=\mathbf{A}^{\top} \underline{\xi}_{3}^{e}=\left[\begin{array}{ll}
0.510 &amp; 13 \\
0.314 &amp; 84 \\
0.175 &amp; 04
\end{array}\right]\\
\xi_{4}^{e}=\frac{\mathbf{B}(:, 2) \odot \xi_{4}^{p}}{\mathbf{B}(:, 2)^{\top} \xi_{4}^{p}}=\left[\begin{array}{l}
0.73212 \\
0.10041 \\
0.16747
\end{array}\right]
\end{array}
$$
&lt;p>$\Rightarrow$ Die Schätzung deutet auf einen sonnigen Tag.&lt;/p>
&lt;p>&lt;strong>Beispiel (weiter)&lt;/strong>&lt;/p>
&lt;p>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-06-29%2018.20.53.png" alt="截屏2022-06-29 18.20.53">&lt;/p>
&lt;p>Lösung:&lt;/p>
&lt;p>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/%E6%88%AA%E5%B1%8F2022-06-29%2018.21.12.png" alt="截屏2022-06-29 18.21.12">&lt;/p></description></item><item><title>Gaußverteilung</title><link>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/gauss_verteilung/</link><pubDate>Sun, 03 Jul 2022 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/notes/stochastische_informationsverarbeitung/math/gauss_verteilung/</guid><description>&lt;h2 id="skalarer-fall-1d">Skalarer Fall (1D)&lt;/h2>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/WP_Normalverteilung_01-1024x576.jpg" alt="Eigenschaften Normalverteilung, Normalverteilung, Wendestellen, Standardabweichung, Varianz, Mittelwert, Sigma, Mü, Maximum, Erwartungswert, Funktion Normalverteilung" style="zoom: 50%;" />
$$
f(x)=\frac{1}{\sqrt{2 \pi} \sigma} \exp \left\{-\frac{1}{2} \frac{(x-\hat{x})^{2}}{\sigma^{2}}\right\}
$$
&lt;ul>
&lt;li>
&lt;p>Erwartungswert
&lt;/p>
$$
E_{f}\{x\}=\hat{x}
$$
&lt;/li>
&lt;li>
&lt;p>Varianz&lt;/p>
$$
E_{f}\left\{(x-\hat{x})^{2}\right\}=\sigma^{2}
$$
&lt;/li>
&lt;/ul>
&lt;blockquote>
&lt;p>Given the parameters $\mu$ and $\sigma$ of a Gaussian density, mean and variance are already given. On the other hand, assume that we wish to approximate a given density $\tilde{f}_x$ with a simpler density of the same mean and standard deviation. Then, given the mean and the standard deviation of the density $\tilde{f}_x$, an appropriate Gaussian density is immediately obtained. This is a property not generally shared by more complicated densities.&lt;/p>
&lt;/blockquote>
&lt;h2 id="2d-normalverteilung">2D Normalverteilung&lt;/h2>
$$
\begin{aligned}
f_{x y}(x, y)&amp;=\frac{1}{2 \pi \sigma_{x} \sigma_{y} \sqrt{1-r^{2}}} \exp \left\{-\frac{1}{2} Q(x, y)\right\} \\
Q(x, y)&amp;=\frac{1}{1-r}\left\{\frac{(x-\hat{x})^{2}}{\sigma_{x}^{2}}-2 r \frac{x-\hat{x}}{\sigma_{x}} \frac{y-\hat{y}}{\sigma_{y}}+\frac{(y-\hat{y})^{2}}{\sigma_{y}^{2}}\right\}
\end{aligned}
$$
&lt;ul>
&lt;li>$r \in [-1, 1]$: Korrelationskoeffizent (in some literature also written as $\rho$)&lt;/li>
&lt;/ul>
&lt;p>Alternativ&lt;/p>
$$
f_{x y}(x, y)=\mathcal{N} \left(\left[\begin{array}{l}
x \\
y
\end{array}\right],\left[\begin{array}{l}
\hat{x} \\
\hat{y}
\end{array}\right],\left[\begin{array}{ll}
C_{x x} &amp; C_{x y} \\
C_{y x} &amp; C_{y y}
\end{array}\right]\right)
$$
&lt;p>mit&lt;/p>
$$
\left[\begin{array}{ll}
c_{x x} &amp; c_{x y} \\
c_{y x} &amp; c_{y y}
\end{array}\right]=\left[\begin{array}{lc}
\sigma_{x}^{2} &amp; r \sigma_{x} \sigma_{y} \\
r \sigma_{x} \sigma_{y} &amp; \sigma_{y}^{2}
\end{array}\right]
$$
&lt;h3 id="correlationskoeffizient">Correlationskoeffizient&lt;/h3>
&lt;figure>&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/Figure_1.png"
alt="Correlation of bivariate Gaussian distribution ($\rho$ is the correlation coefficient). (Source:
)">&lt;figcaption>
&lt;p>Correlation of bivariate Gaussian distribution ($\rho$ is the correlation coefficient). (Source:
)&lt;/p>
&lt;/figcaption>
&lt;/figure>
&lt;ul>
&lt;li>
&lt;p>unkorreliert ($r = 0$) (Figure 1 right)&lt;/p>
&lt;ul>
&lt;li>$\Rightarrow \boldsymbol{x}, \boldsymbol{y}$ unkorreliert&lt;/li>
&lt;li>$\Rightarrow$ (nur für Gauß) $\boldsymbol{x}, \boldsymbol{y}$ unabhängig ($f_{\boldsymbol{x}, \boldsymbol{y}} = f_{\boldsymbol{x}}(x) f_{\boldsymbol{y}}(y)$
)&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>positiv korreliert ($r > 0$) (Figure 1 left)&lt;/p>
&lt;/li>
&lt;li>
&lt;p>positiv korreliert ($r &lt; 0$) (Figure 1 middle)&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h2 id="n-dim-normalverteilung">$N$-dim. Normalverteilung&lt;/h2>
$$
f_{\boldsymbol{x}}(x)=\frac{1}{\sqrt{(2 \pi)^{N} \cdot|\mathbf{C}|}} \exp \left\{-\frac{1}{2}(\underline{x}-\underline{\hat{x}})^{\top} \mathbf{C}^{-1}(\underline{x}-\underline{\hat{x}})\right\}
$$
&lt;ul>
&lt;li>$\underline{\hat{x}}$
: Mean&lt;/li>
&lt;li>$\mathbf{C}$
: Kovarianzmatrix&lt;/li>
&lt;/ul></description></item><item><title>Math Basics</title><link>https://haobin-tan.netlify.app/docs/ai/machine-learning/ml-fundamentals/math-basics/</link><pubDate>Mon, 17 Aug 2020 00:00:00 +0000</pubDate><guid>https://haobin-tan.netlify.app/docs/ai/machine-learning/ml-fundamentals/math-basics/</guid><description>&lt;h2 id="linear-algebra">Linear Algebra&lt;/h2>
&lt;h3 id="vectors">Vectors&lt;/h3>
&lt;p>&lt;strong>Vector&lt;/strong>: multi-dimensional quantity&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Each dimension contains different information (e.g.: Age, Weight, Height&amp;hellip;)&lt;/p>
&lt;img src="https://raw.githubusercontent.com/EckoTan0804/upic-repo/master/uPic/Vectors.png" alt="Vectors" style="zoom:70%;" />
&lt;/li>
&lt;li>
&lt;p>represented as &lt;strong>bold symbols&lt;/strong>&lt;/p>
&lt;/li>
&lt;li>
&lt;p>A vector $\boldsymbol{x}$ is always a &lt;strong>column&lt;/strong> vector
&lt;/p>
$$
\boldsymbol{x}=\left[\begin{array}{l}
{1} \\\\
{2} \\\\
{4}
\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>A transposed vector $\boldsymbol{x}^T$ is a &lt;strong>row&lt;/strong> vector
&lt;/p>
$$
\boldsymbol{x}^{T}=\left[\begin{array}{lll}
{1} &amp; {2} &amp; {4}
\end{array}\right]
$$
&lt;/li>
&lt;/ul>
&lt;h4 id="vector-operations">Vector Operations&lt;/h4>
&lt;ul>
&lt;li>
&lt;p>&lt;strong>Multiplication by scalars&lt;/strong>
&lt;/p>
$$
2\left[\begin{array}{l}
{1} \\\\
{2}
\end{array}\right]=\left[\begin{array}{l}
{2} \\\\
{4}
\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Addtition of vectors&lt;/strong>
&lt;/p>
$$
\left[\begin{array}{l}{1} \\\\ {2} \end{array}\right]+\left[\begin{array}{l}{3} \\\\ {1}\end{array}\right]=\left[\begin{array}{l}{4} \\\\ {3} \end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Scalar (Inner) products&lt;/strong>: Sum the element-wise products
&lt;/p>
$$
\boldsymbol{v}=\left[\begin{array}{c}{1} \\\\ {2} \\\\ {4}\end{array}\right], \quad \boldsymbol{w}=\left[\begin{array}{l}{2} \\\\ {4} \\\\ {8}\end{array}\right]
$$
&lt;/li>
&lt;/ul>
$$
\langle v, w\rangle= 1 \cdot 2+2 \cdot 4+4 \cdot 8=42
$$
&lt;ul>
&lt;li>&lt;strong>Length of a vector&lt;/strong>: Square root of the inner product with itself
$$
\|\boldsymbol{v}\|=\langle\boldsymbol{v}, \boldsymbol{v}\rangle^{\frac{1}{2}}=\left(1^{2}+2^{2}+4^{2}\right)^{\frac{1}{2}}=\sqrt{21}
$$&lt;/li>
&lt;/ul>
&lt;h3 id="matrices">Matrices&lt;/h3>
&lt;p>Matrix: rectangular array of numbers arranged in rows and columns&lt;/p>
&lt;ul>
&lt;li>
&lt;p>denoted with &lt;strong>bold upper-case letters&lt;/strong>
&lt;/p>
$$
\boldsymbol{X}=\left[\begin{array}{ll}{1} &amp; {3} \\\\ {2} &amp; {3} \\\\ {4} &amp; {7}\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>Dimension: $\\#rows \\times \\#columns$ (E.g.: 👆$X \in \mathbb{R}^{3 \times 2}$)&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Vectors are special cases of matrices
&lt;/p>
$$
\boldsymbol{x}^{T}=\underbrace{\left[\begin{array}{ccc}{1} &amp; {2} &amp; {4}\end{array}\right]}_{1 \times 3 \text { matrix }}
$$
&lt;/li>
&lt;/ul>
&lt;p>####Matrices in ML&lt;/p>
&lt;ul>
&lt;li>
&lt;p>Data set can be represented as matrix, where single samples are vectors&lt;/p>
&lt;p>e.g.:&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>&lt;/th>
&lt;th>Age&lt;/th>
&lt;th>Weight&lt;/th>
&lt;th>Height&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>Joe&lt;/td>
&lt;td>37&lt;/td>
&lt;td>72&lt;/td>
&lt;td>175&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>Mary&lt;/td>
&lt;td>10&lt;/td>
&lt;td>30&lt;/td>
&lt;td>61&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>Carol&lt;/td>
&lt;td>25&lt;/td>
&lt;td>65&lt;/td>
&lt;td>121&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>Brad&lt;/td>
&lt;td>66&lt;/td>
&lt;td>67&lt;/td>
&lt;td>175&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
$$
\text { Joe: } \boldsymbol{x}\_{1}=\left[\begin{array}{c}{37} \\\\ {72} \\\\ {175}\end{array}\right], \qquad \text { Mary: } \boldsymbol{x}\_{2}=\left[\begin{array}{c}{10} \\\\ {30} \\\\ {61}\end{array}\right] \\\\
$$
$$
\text { Carol: } \boldsymbol{x}\_{3}=\left[\begin{array}{c}{25} \\\\ {65} \\\\ {121}\end{array}\right], \qquad \text { Brad: } \boldsymbol{x}\_{4}=\left[\begin{array}{c}{66} \\\\ {67} \\\\ {175}\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Most typical representation:&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>row ~ data sample (e.g. Joe)&lt;/li>
&lt;li>column ~ data entry (e.g. age)&lt;/li>
&lt;/ul>
$$
\boldsymbol{X}=\left[\begin{array}{l}{\boldsymbol{x}\_{1}^{T}} \\\\ {\boldsymbol{x}\_{2}^{T}} \\\\ {\boldsymbol{x}\_{3}^{T}} \\\\ {\boldsymbol{x}\_{4}^{T}}\end{array}\right]=\left[\begin{array}{ccc}{37} &amp; {72} &amp; {175} \\\\ {10} &amp; {30} &amp; {61} \\\\ {25} &amp; {65} &amp; {121} \\\\ {66} &amp; {67} &amp; {175}\end{array}\right]
$$
&lt;/li>
&lt;/ul>
&lt;h4 id="matrice-operations">Matrice Operations&lt;/h4>
&lt;ul>
&lt;li>
&lt;p>&lt;strong>Multiplication with scalar&lt;/strong>
&lt;/p>
$$
3 \boldsymbol{M}=3\left[\begin{array}{lll}{3} &amp; {4} &amp; {5} \\\\ {1} &amp; {0} &amp; {1}\end{array}\right]=\left[\begin{array}{ccc}{9} &amp; {12} &amp; {15} \\\\ {3} &amp; {0} &amp; {3}\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Addition of matrices&lt;/strong>
&lt;/p>
$$
\boldsymbol{M} + \boldsymbol{N}=\left[\begin{array}{lll}{3} &amp; {4} &amp; {5} \\\\ {1} &amp; {0} &amp; {1}\end{array}\right]+\left[\begin{array}{lll}{1} &amp; {2} &amp; {1} \\\\ {3} &amp; {1} &amp; {1}\end{array}\right]=\left[\begin{array}{lll}{4} &amp; {6} &amp; {6} \\\\ {4} &amp; {1} &amp; {2}\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Transposed&lt;/strong>
&lt;/p>
$$
\boldsymbol{M}=\left[\begin{array}{lll}{3} &amp; {4} &amp; {5} \\\\ {1} &amp; {0} &amp; {1}\end{array}\right], \boldsymbol{M}^{T}=\left[\begin{array}{ll}{3} &amp; {1} \\\\ {4} &amp; {0} \\\\ {5} &amp; {1}\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Matrix-Vector product&lt;/strong> (Vector need to have &lt;strong>same&lt;/strong> dimensionality as number of columns)
&lt;/p>
$$
\underbrace{\left[\boldsymbol{w}\_{1}, \ldots, \boldsymbol{w}\_{n}\right]}_{\boldsymbol{W}} \underbrace{\left[\begin{array}{c}{v\_{1}} \\\\ {\vdots} \\\\ {v\_{n}}\end{array}\right]}\_{\boldsymbol{v}}=\underbrace{\left[\begin{array}{c}{v\_{1} \boldsymbol{w}\_{1}+\cdots+v\_{n} \boldsymbol{w}\_{n}}\end{array}\right]}\_{\boldsymbol{u}}
$$
&lt;p>
E.g.:
&lt;/p>
$$
\boldsymbol{u}=\boldsymbol{W} \boldsymbol{v}=\left[\begin{array}{ccc}{3} &amp; {4} &amp; {5} \\\\ {1} &amp; {0} &amp; {1}\end{array}\right]\left[\begin{array}{l}{1} \\\\ {0} \\\\ {2}\end{array}\right]=\left[\begin{array}{l}{3 \cdot 1+4 \cdot 0+5 \cdot 2} \\\\ {1 \cdot 1+0 \cdot 0+1 \cdot 2}\end{array}\right]=\left[\begin{array}{c}{13} \\\\ {3}\end{array}\right]
$$
&lt;p>
💡 &lt;em>Think as: We sum over the columns $\boldsymbol{w}_i$ of $\boldsymbol{W}$ weighted by $v_i$&lt;/em>&lt;/p>
&lt;/li>
&lt;/ul>
$$
u=v\_{1} w\_{1}+\cdots+v\_{n} w\_{n}=1\left[\begin{array}{l}{3} \\\\ {1}\end{array}\right]+0\left[\begin{array}{l}{4} \\\\ {0}\end{array}\right]+2\left[\begin{array}{l}{5} \\\\ {1}\end{array}\right]=\left[\begin{array}{c}{13} \\\\ {3}\end{array}\right]
$$
&lt;ul>
&lt;li>
&lt;p>&lt;strong>Matrix-Matrix product&lt;/strong>
&lt;/p>
$$
\boldsymbol{U} = \boldsymbol{W} \boldsymbol{V}=\left[\begin{array}{lll}{3} &amp; {4} &amp; {5} \\\\ {1} &amp; {0} &amp; {1}\end{array}\right]\left[\begin{array}{ll}{1} &amp; {0} \\\\ {0} &amp; {3} \\\\ {2} &amp; {4}\end{array}\right]=\left[\begin{array}{ll}{3 \cdot 1+4 \cdot 0+5 \cdot 2} &amp; {3 \cdot 0+4 \cdot 3+5 \cdot 4} \\\\ {1 \cdot 1+0 \cdot 0+1 \cdot 2} &amp; {1 \cdot 0+0 \cdot 3+1 \cdot 4}\end{array}\right]=\left[\begin{array}{cc}{13} &amp; {32} \\\\ {3} &amp; {4}\end{array}\right]
$$
&lt;p>
💡 &lt;em>Think of it as: Each column $\boldsymbol{u}\_i = \boldsymbol{W} \boldsymbol{v}\_i$ can be computed by a matrix-vector product&lt;/em>
&lt;/p>
$$
\boldsymbol{W} \underbrace{\left[\boldsymbol{v}\_{1}, \ldots, \boldsymbol{v}\_{n}\right]}\_{\boldsymbol{V}}=[\underbrace{\boldsymbol{W} \boldsymbol{v}\_{1}}_{\boldsymbol{u}\_{1}}, \ldots, \underbrace{\boldsymbol{W} \boldsymbol{v}\_{n}}\_{\boldsymbol{u}\_{n}}]=\boldsymbol{U}
$$
&lt;ul>
&lt;li>
&lt;p>Non-commutative: $\boldsymbol{V} \boldsymbol{W} \neq \boldsymbol{W} \boldsymbol{V}$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Associative: $\boldsymbol{V}(\boldsymbol{W} \boldsymbol{X})=(\boldsymbol{V} \boldsymbol{W}) \boldsymbol{X}$&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Transpose product:
&lt;/p>
$$
(\boldsymbol{V} \boldsymbol{W}) ^{T}=\boldsymbol{W}^{T} \boldsymbol{V}^{T}
$$
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Matrix inverse&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>
&lt;p>scalar
&lt;/p>
$$
w \cdot w^{-1}=1
$$
&lt;/li>
&lt;li>
&lt;p>matrices
&lt;/p>
$$
\boldsymbol{W} \boldsymbol{W}^{-1}=\boldsymbol{I}, \quad \boldsymbol{W}^{-1} \boldsymbol{W}=\boldsymbol{I}
$$
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;h4 id="important-special-cases">Important Special Cases&lt;/h4>
&lt;ul>
&lt;li>
&lt;p>&lt;strong>Scalar (Inner) product:&lt;/strong>
&lt;/p>
$$
\langle\boldsymbol{w}, \boldsymbol{v}\rangle = \boldsymbol{w}^{T} \boldsymbol{v}=\left[w\_{1}, \ldots, w\_{n}\right]\left[\begin{array}{c}{v\_{1}} \\\\ {\vdots} \\\\ {v\_{n}}\end{array}\right]=w\_{1} v\_{1}+\cdots+w\_{n} v\_{n}
$$
&lt;/li>
&lt;li>
&lt;p>&lt;strong>Compute row/column averages of matrix&lt;/strong>
&lt;/p>
$$
\boldsymbol{X}=\underbrace{\left[\begin{array}{ccc}{X\_{1,1}} &amp; {\dots} &amp; {X\_{1, m}} \\\\ {\vdots} &amp; {} &amp; {\vdots} \\\\ {X\_{n, 1}} &amp; {\dots} &amp; {X\_{n, m}}\end{array}\right]}\_{n \text { (samples) } \times m \text { (entries) }}
$$
&lt;ul>
&lt;li>
&lt;p>Vector of row averages (average over all entries per sample)
&lt;/p>
$$
\left[\begin{array}{cc}{\frac{1}{m} \sum\_{i=1}^{m} X\_{1, i}} \\\\ {\vdots} &amp; {} \\\\ {\frac{1}{m} \sum_{i=1}^{m} X\_{n, i}}\end{array}\right]=\boldsymbol{X}\left[\begin{array}{c}{\frac{1}{m}} \\\\ {\vdots} \\\\ {\frac{1}{m}}\end{array}\right]=\boldsymbol{X} \boldsymbol{a}, \quad \text { with } \boldsymbol{a}=\left[\begin{array}{c}{\frac{1}{m}} \\\\ {\vdots} \\\\ {\frac{1}{m}}\end{array}\right]
$$
&lt;/li>
&lt;li>
&lt;p>Vector of column averages (average over all samples per entry)
&lt;/p>
$$
\left[\frac{1}{n} \sum_{i=1}^{n} X\_{i, 1}, \ldots, \frac{1}{n} \sum\_{i=1}^{n} X\_{i, m}\right]=\left[\frac{1}{n}, \ldots, \frac{1}{n}\right] \boldsymbol{X}=\boldsymbol{b}^{T} \boldsymbol{X}, \text { with } \boldsymbol{b}=\left[\begin{array}{c}{\frac{1}{n}} \\\\ {\vdots} \\\\ {\frac{1}{n}}\end{array}\right]
$$
&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="calculus">Calculus&lt;/h2>
&lt;ul>
&lt;li>
&lt;blockquote>
&lt;p>“The derivative of a function of a real variable measures &lt;strong>the sensitivity to change of a quantity&lt;/strong> (a function value or dependent variable) which is determined by another quantity (the independent variable)”&lt;/p>
&lt;/blockquote>
&lt;/li>
&lt;/ul>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>&lt;/th>
&lt;th>Scalar&lt;/th>
&lt;th>Vector&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>Function&lt;/td>
&lt;td>$f(x)$&lt;/td>
&lt;td>$f(\boldsymbol{x})$&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>Derivative&lt;/td>
&lt;td>$\frac{\partial f(x)}{\partial x}=g$&lt;/td>
&lt;td>$\frac{\partial f(\boldsymbol{x})}{\partial \boldsymbol{x}}=\left[\frac{\partial f(\boldsymbol{x})}{\partial x\_{1}}, \ldots, \frac{\partial f(\boldsymbol{x})}{\partial x\_{d}}\right]^{T} =: \nabla f(x)\quad$&lt;br />(👆 gradient of function $f$ at $\boldsymbol{x}$)&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>Min/Max&lt;/td>
&lt;td>$\frac{\partial f(x)}{\partial x}=0$&lt;/td>
&lt;td>$\frac{\partial f(\boldsymbol{x})}{\partial \boldsymbol{x}}=[0, \ldots, 0]^{T}=\mathbf{0}$&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;h3 id="matrix-calculus">Matrix Calculus&lt;/h3>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>&lt;/th>
&lt;th>Scalar&lt;/th>
&lt;th>Vector&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>Linear&lt;/td>
&lt;td>$\frac{\partial a x}{\partial x}=a$&lt;/td>
&lt;td>$\nabla\_{\boldsymbol{x}} \boldsymbol{A} \boldsymbol{x}=\boldsymbol{A}^{T}$&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>Quadratic&lt;/td>
&lt;td>$\frac{\partial x^{2}}{\partial x}=2 x$&lt;/td>
&lt;td>$\begin{array}{l}{\nabla\_{\boldsymbol{x}} \boldsymbol{x}^{T} \boldsymbol{x}=2 \boldsymbol{x}} \\\\ {\nabla\_{\boldsymbol{x}} \boldsymbol{x}^{T} \boldsymbol{A} \boldsymbol{x}=2 \boldsymbol{A} \boldsymbol{x}}\end{array}$&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table></description></item></channel></rss>