<!-- LaTeX macros for easier math typesetting can be defined here --> $$ \def\dbm{{\,\mathrm{dBm}}} \def\unit#1{{\,\mathrm{#1}}} \def\pr#1{{\mathrm{Pr}\{#1\}}} $$ # NT*Sus* Formelsammlung ## Allgemeines ## Pegel - $10 \cdot \log \left( \frac{x}{1 \unit{mW}} \right) = x \cdot \dbm =10 \log(x) + 30 \dbm$ - ## Freiraum, ECB, Hilbert ## AM ## FM ## PCM ## DPCM ## Informationstheorie - Informationsmaß nach SNNONNNON (sry da war ein Bitfehler drin) $$ \def\pr#1{{\mathrm{Pr}\{#1\}}} I(X)=-\log_2(\pr{X}) \qquad [\mathrm{bit}] $$ - **Entropie** (mittlerer Informationsgehalt) einer Quelle mit Quellensymbolen $x_i$ mit $i \in 1, ..., M_x$ $$ H(X)= -\sum_{i=1}^{M_x} \pr{x_i}\log_2{(\pr{x_i})} \qquad \left[ \frac{\text{bit}}{\text{Quellensymbol}} \right] $$ Die Entropie ist nichtnegativ und nach oben beschränkt. Es gilt: $$ 0 \leq H(X) \leq \log_2(M_x) $$ - **Binäre Entropiefunktion** - Entropie bei *binärer Quelle* mit Quellsymbolwahrscheinlichkeiten $p$ und $1-p$ $$ \mathrm e_2(x) \stackrel{\text{def}}{=} -p \log_2(p) - (1-p) \log_2(1-p) $$ Für $p=0.5$ ist die Entropie mit 1 maximal. Die Unsicherheit über das beobachtete Ereignis ist dann am größten. - **Quellencodierungstheorem** Zur *umkehrbar* eindeutigen Repräsentation von Information durch Binärsymbole reichen *im Mittel* $$H(X)\ \frac{\text{Binärsymbole}}{\text{Quellensymbol}}$$ aus. Die Entropie bildet somit die untere Grenze für die "Kompression" der Information. - **Huffman-Codierung** - Quellsymbole (z.B. $A$) oder Quellenwörter (bestehend aus mehreren Quellensymbolen, z.B. $ABA$) der Länge $L$ werden auf $M_x^L$ (Anzahl) *binäre Codewörter* mit variabler Länge (z.B. $01, 1100$) abgebildet - Quellenwörter mit großer Ereigniswahrscheinlichkeit werden kurze binäre Codewörter zugewiesen - Der Code ist *präfixfrei*. Kein Codewort darf *Präfix* eines anderen Codewortes sein. So können die Wortgrenzen ohne explizite Trennsymbole rekonstruiert werden. - Bei der Anwendung des Huffman-Algorithmus ist die Präfixfreiheit automatisch gegeben. - mittlere Codewortlänge (Erwartungswert der Codewortlänge): $$\overline n_L = \sum_{i=1}^{M_x^L} n_i \cdot p_i$$ mit $n_i$: Länge des Codewortes und $p_i$: Auftrittswahrscheinlichkeit des Codewortes **TODO: Algorithmus schrittweise und mit hübschen Bildchen beschreiben** - Abschätzung der mittleren Zahl von binären Codesymbolen je Quellensymbol $$H(X) \leq \frac{\overline n_L}{L} \leq H(X) + \frac 1 L$$ Für $L \rightarrow \infty$ wird mit der Huffman-Codierung die Entropie erreicht! ### Wechselseitige Information - Beobachtung von zwei Quellen: $$ H(XY) = - \sum_{i=1}^{M_x} \sum_{j=1}^{M_y} \pr{x_i, y_i} \log_2(\pr{x_i, y_i}) $$ - *Bedingte Entropie*: Mittlerer Informationsgehalt über Quelle $X$ bei der Beobachtung von Quelle $Y$ $$ H(X|Y) = - \sum_{i=1}^{M_x} \sum_{j=1}^{M_y} \pr{x_i, y_i} \log_2(\pr{x_i|y_i}) $$ - $\pr{x_i, y_i}$: Verbundwahrscheinlichkeit - $\pr{x_i, y_i} = \pr{y_i} \cdot \pr{x_i | y_i}$ - $\pr{x_i | y_i}$: *bedingte* Wahrscheinlichkeit für $x_i$, wenn $y_i$ bekannt ist - Wechselseitige Information - Informationsgewinn über $X$ bei der Beobachtung von $Y$ $$ \begin{align} I(X;Y) =&\ H(X)-H(X|Y) \\ =&\ \sum_{i=1}^{M_x} \sum_{j=1}^{M_y} \pr{x_i, y_i} \log_2\left(\frac{\pr{x_i|y_i}}{\pr{y_i}}\right) \end{align} $$ ## DÜ $$ ## CDMA ## OFDM *Quelle: NTSus Skript WS 20/21<sup>ok pls don't sue for plagiarism</sup>*