# Mathematik I
## Beweise
### Vollständige Induktion
- Induktionsanfang
- Sei $n=0$, wir müsssen zeigen, dass $\dots$ gilt.
- $\dots$
- Somit ist der Induktionsanfang ist bewiesen.
- Induktionsvoraussetzung
- Für ein beliebiges aber festes $n \in N:$ $\dots$
- Induktionsschritt
- Es bleibt zu zeigen, dass $\dots$ gilt. ($n+1$)
- Somit ist der Induktionsschritt ist bewiesen.
## Mengen
### Schnittmenge
- $G$ = Grundmenge und $A, B \in G$
- $A \cap B := \{x | x \in A \wedge x \in B\}$

### Vereinigung
- $G$ = Grundmenge und $A, B \in G$
- $A \cup B := \{x | x \in A \vee x \in B\}$

### Differenz und Komplement
- $G$ = Grundmenge und $A, B \in G$
- $A \backslash B := \{x | x \in A \wedge x \not\in B\}$
- $B^C := \{x | x \not\in B\}$

### Kartesisches Produkt
- $A \times B := \{(a, b) | a \in A, b \in B\}$
### Potenzmene
- $\mathcal{P}(A)$ Menge aller Teilmengen von $A$
## Relationen
### Reflexivität
- $R$ heißt reflexiv gdw. für alle $a \in A$ gilt $aRa$
### Symmetrie
- $R$ heißt symmetrisch gdw. für alle $a, b \in A$ gilt: $aRb \Leftrightarrow bRa$
### Transitivität
- $R$ heißt transitiv gdw. für alle $a, b, c \in A$ gilt: $aRb$ und $bRc \Rightarrow aRc$
### Antisymmetrie
- $R$ heißt antisymmetrisch gdw. für alle $a, b \in A$ gilt: $aRb \Leftrightarrow bRa$, dann folgt $a = b$
### Ordnungsrelation
- Reflexivität, Symmetrie, Transitivität
### Äquivalenzrelation
- Reflexivität, Antisymmetrie, Transitivität
## Teilbarkeit
### Erweiterter Euklid
- $k_i = l_{i+1}$
- $l_i = k_{i+1} - \lfloor \frac{a}{b}\rfloor \cdot l_{i+1}$
- Falls $b > a$, vertausche $a$ und $b$

- $l \cdot a + k \cdot b = 1$
- Bsp. $4 \cdot 47 + (−11) \cdot 17 = 1$
### Finde eine Zahl, die folgende Gleichung löst: $y = k \cdot x \mod b$
- $1 \mod n= (kn + la) \mod n = la \mod n$
- Bsp. löse $4 = 47 x \mod 17$
- $1 \mod 17 = \underbrace{4}_x \cdot 47 + (−11) \cdot 17$
- $4 \cdot 1 \mod 17 = \underbrace{4 \cdot 4}_x \cdot 47 + (−11) \cdot 17$
- $x = 16 \ (4 \cdot 4)$
## Komplexe Zahlen
### $z^n = x$ Anzahl an Lösungen angeben
- $z_k = |z|^{\frac{1}{n}} e^{i \frac{\varphi + 2k\pi}{n}}$
- $|z| = \sqrt[n]{x}$.
## Normierte Räume
### Orthonormalbasis
- Satz 3.4.14: Kriterienx
- Die Vektoren sind paarweise orthogonal
- $(v_1|v_2), (v_2|v_3), (v1|v_3), \dots$
- Die Vektoren bilden eine Basis
- Die Vekktoren sind normiert
- $||v_1||_2 = \dots = ||v_n||_2 = 1$
- Bemerkung 3.4.15: Vektor $v$ als Linearkombination der Basisvektoren $v_1, \dots, v_n$ darstellen
- $v = (v_1|v) \cdot v_1 + \dots + (v_n|v) \cdot v_n$
- Nur Skalarprodukt ausrechnen (Linearkombination angeben!)
## Matrizen und lineare Abbildungen
### Matrixrechnung
- Vektorraum der $p\times n$-Matrizen ̈uber einem Körper $K$
$A = \begin{pmatrix} \alpha_{11} & \alpha_{12} & \dots & \alpha_{1n} \\ \alpha_{21} & \alpha_{22} & \dots & \alpha_{2n} \\ \vdots & \vdots & \dots & \vdots \\ \alpha_{p1} & \alpha_{p2} & \dots & \alpha_{pn}\end{pmatrix}$
- Matrixprodukt (Multiplikation) $A \cdot B = AB \in K^{q\times n}$
- Bemerkung 3.7.2: Anzahl Spalten $A$ = Anzahl Zeilen $B$
- Größe: Anzahl Zeilen $A$ $\times$ Anzahl Spalten $B$
- $AB := \left(\sum_{l=1}^p \alpha_{jl} \cdot \beta_{lk}\right)_{j=1, \dots, q, k=1, \dots,n}$

### Orthognale Matrix
- $A \cdot A^T = I$
### Basis des Kerns der linearen Abbildung
- $(A|0)$ via Gauß-Algorithmus lösen in Zeilenform bringen
- Resultierende Gleichungen lösen, um $x_1, \dots, x_n$ zu bestimmen.
- $\ker(\Phi) = \left\{\begin{pmatrix}x_1 \\ x_2 \\ x_3 \\ x_4\end{pmatrix}\right\}$
- Falls es mehr Gleichungen gibt, als Variablen $\Rightarrow$ Unendlich viele Lösungen, setze für eine Variable eine freie Komponente ein bspw. $x_4 = \lambda$
- $\ker(\Phi) = \left\{\lambda \cdot \begin{pmatrix}x_1 \\ x_2 \\ x_3 \\ 1\end{pmatrix}| \lambda \in \mathbb{R}\right\}$
- Basis entspricht den Vektoren vom $\ker(\Phi)$
- $\left\{\begin{pmatrix}x_1 \\ x_2 \\ x_3 \\ x_4\end{pmatrix}\right\}$
### Basis des Bildes der linearen Abbildung
- Matrix $A$ transponieren und in Zeilenform bringen
- In den Zeilen stehen jetzt die Basisvektoren des Bildes
- Transponierte Matrix in Zeilenform: $\begin{pmatrix} -2 & 4 & 0 & 8 \\ 0 & 6 & 6 & 18 \\ 0 & 0 & 12 & -12 \\ 0 & 0 & 0 & 0\end{pmatrix}$
- Basis = $\left\{\begin{pmatrix} -2 \\ 4 \\ 0 \\ 8\end{pmatrix}, \begin{pmatrix} 0 \\ 6 \\ 6 \\ 18\end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 12 \\ -12\end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0\end{pmatrix}\right\}$
### Rang einer Matrix
- Rang von Matrix $A$ = Nichtnullzeilen der Matrix in Zeilenform
- $A = \begin{pmatrix} -2 & 4 & 0 & 8 \\ 0 & 6 & 6 & 18 \\ 0 & 0 & 12 & -12 \\ 0 & 0 & 0 & 0\end{pmatrix}$
- $\mathrm{Rang}(A) = 3$
### Dimension von $A$
- $\det(A) \neq 0 \Rightarrow \dim(\ker(A)) = \dim\left(\left\{\begin{pmatrix} 0\\0\\0 \end{pmatrix}\right\}\right) = 0$
### Lineare Abbildung $\Phi$ injektiv, surjektiv oder bijektiv?
- Satz 3.6.15 $V, W$ $K-$Vektorräume, $\Phi: V \rightarrow W$ linear
- $\ker(\Phi)$ ist ein Untervektorraum von $V$
- $\Phi$ ist genau dann injektiv, wenn $\ker(\Phi) = \{0_V\}$
- $\Phi(V)$ ist ein Untervektoraum von $W$, der sogenannte Bildraum von $Phi$
- Satz 3.6.19 $V$ eindimensionaler $K-$Vektorräume, $\Phi: V \rightarrow V$ linear
- $\Phi$ ist bijektiv $\Leftrightarrow$ $\Phi$ ist injektiv $\Leftrightarrow \ker(\Phi) = \{0\} \Leftrightarrow \mathrm{Rang}(\Phi) = \dim(V) \Leftrightarrow$ $\Phi$ ist surjektiv
- Allgemein
- injektiv: $\ker(\Phi) = \{0_V\}$ (triviale Lösung)
- surjektiv: $\mathrm{Rang}(\text{Abbildung}) = \dim(V)$ bzw. $\dim(\text{Bild}) = \dim(V)$ ($V$ = Zielmenge)
- bjektiv: inejktiv + surjektiv
## Basiswechsel
### Abbildungsmatrix $M_{\mathcal{C}}^{\mathcal{B}}(\Phi)$ von $\Phi$ bezüglich der Standardbasen $\mathcal{B} = \{\dots\}$, $\mathcal{C} = \{\dots\}$
- Die Darstellungsmatrix ergibt sich definitionsgemäß durch das Betrachten der Bilder der Basisvektoren des Urbildraums. Es gilt
- $\Phi(\mathcal{B}_1) = \dots, \dots, \Phi(\mathcal{B}_n) = \dots$ ($1, \dots, n$ = Basisvektoren)
- Damit hat die gesuchte Matrix die Gestalt
- $M_{\mathcal{C}}^{\mathcal{B}}(\Phi)$ = Resultierende Vektoren von $\Phi(\mathcal{B}_1), \dots, \Phi(\mathcal{B}_n)$ als Spalten
### Darstellende Matrix $M_{\mathcal{C}}^{\mathcal{B}}(\Phi)$ der Abbildung $\Phi$ bezüglich der Basen $c_1, c_2$
- Koordinatendarstellung des Bildes $\Phi(b_i) = [\Phi(b_i)]_\mathcal{b}$
- $[\Phi(b_i)]_\mathcal{b} = \begin{pmatrix} \alpha \\ \beta \end{pmatrix} \Leftrightarrow \Phi(b_i) = \alpha \cdot c_1 + \beta c_2$
- Standardbasis der Bilder berechnen
- $\phi(b_1) = \dots, \dots, \phi(b_n) = \dots$
- Koordinatendarstellung berechnen
- $\phi(b_1) = \alpha_1 \cdot c_1 + \beta_1 \cdot c_2$
- Gleichungssystem lösen und somit erhält man die Koeffizienten für $c_1, c_2$ und dies entspricht die Koordinatendarstellung $[\Phi(b_i)]_\mathcal{b}$
- $M_{\mathcal{C}}^{\mathcal{B}}(\Phi)$ = Resultierende Vektoren von $[\Phi(b_1)]_\mathcal{b}, \dots, [\Phi(b_n)]_\mathcal{b})$ als Spalten
## Lineare Gleichungssysteme
## Gauß-Algorithmus
- $Ax = b$ lösen
- $A = \begin{pmatrix} \alpha_{11} & \alpha_{12} & \dots & \alpha_{1n} \\ \alpha_{21} & \alpha_{22} & \dots & \alpha_{2n} \\ \vdots & \vdots & \dots & \vdots \\ \alpha_{p1} & \alpha_{p2} & \dots & \alpha_{pn}\end{pmatrix}$
- $b = \begin{pmatrix} x_1 \\ \vdots \\ x_n\end{pmatrix}$
- Gauß: $\left(\begin{array}{cccc|c} \alpha_{11} & \alpha_{12} & \dots & \alpha_{1n} & x_1 \\ \alpha_{21} & \alpha_{22} & \dots & \alpha_{2n} & x_2 \\ \vdots & \vdots & \dots & \vdots & \vdots \\ \alpha_{p1} & \alpha_{p2} & \dots & \alpha_{pn} & x_n \end{array}\right)$
- $A$ zu Einheitsmatrix bilden (Eindeutige Lösungswerte für $x_1, \dots, x_n$)
## Eigenwerttheorie
### Eigenwerte von Matrix $A$
- $\det(A - \lambda I) = \begin{pmatrix} \alpha_{11} - \lambda & \alpha_{12} & \dots & \alpha_{1n} \\ \alpha_{21} & \alpha_{22} - \lambda & \dots & \alpha_{2n} \\ \vdots & \vdots & \dots & \vdots \\ \alpha_{p1} & \alpha_{p2} & \dots & \alpha_{pn} - \lambda \end{pmatrix}$
- $2 \times 2$ Matrix: $\det(A) = \begin{pmatrix} a & b \\ c & d\end{pmatrix} = a \cdot d - c \cdot b$
- $3 \times 3$ Matrix: $\det(A) = \begin{pmatrix}a & b & c \\ d & e & f \\ g & h & f\end{pmatrix} = a \cdot e \cdot i + b \cdot f \cdot g + c \cdot d \cdot h - g \cdot e \cdot c - h \cdot f \cdot a - i \cdot d \cdot b$
- Eigenwerte = $\lambda_1, \dots, \lambda_n = 0$
### Eigenräume
- Für alle $\lambda \in \{\lambda_1, \dots, \lambda_n\}$ bestimme $\mathrm{Erg}(A, \lambda) = \ker(A - \lambda I)$ und löse das Gleichungssystem via Gauß-Algorithmus auf
- $\mathrm{Erg}(A, \lambda) = \langle v_1, \dots, v_n\rangle$
- Basis: $\{v_1, \dots, v_n$$\}
- Beachte, falls unterbestimmt: Nehme Freie Variablen bspw. $s$ und $t$
### Diagonalmatrix
- Satz 3.11.13: $V$ $n$-dimensionaler $K$-Vektorraum, $\Phi: V \rightarrow V$, $\Phi$ genau dann diagonalisierbar, wenn die Summe der Dimensionen aller Eigenräume gleich $n$ ist
- Definition 3.11.7: $A = S^{-1}DS$, $D$ = Diagonalmatrix
- $D = \begin{pmatrix} \lambda_1 & 0& \dots& 0 \\ 0 & \lambda_2& \dots& 0 \\ \vdots& \vdots & \dots & \vdots \\ 0 & 0 & \dots & \lambda_3\end{pmatrix}$
- Diaognale mit Eigenwerten (Reihenfolge ist egal)
- $S^{-1}$ = Vektoren von Eigenräumen als Spalten der Matrix