{%hackmd @themes/dracula %} <!---$\newcommand{\rg}{\text{rang}$---> $\DeclareMathOperator{\rg}{rang}$ > Pratscher > Schledorn > Sergeyeva | **1** | **2** | **3** | **4** |**5**| $\Sigma$ | | :---: | :---: | :---: | :---: | :---: | :---:| |</br></br></br>__ __ __ __ | </br></br></br>__ __ __ __ | </br></br></br>__ __ __ __ | </br></br></br>__ __ __ __ | </br></br></br>__ __ __ __ | </br></br></br>__ __ __ __ | # Aufgabe 8.1: Frobeniusnorm Die Frobenius-Norm einer Matrix $A\in \mathbb{R}^{n\times n}$ ist definiert als $||A||_F=(\sum\limits_{i,j=1}^n|a_{ij}|^2)^\frac12$ Zeigen Sie: 1) Die Frobenius-Norm definiert eine Norm auf $\mathbb{R}^{n\times n}$ 2) Die Frobenius-Norm ist verträglich mit der euklidischen Vektornorm $||\cdot||_2$ 3) Die Frobenius-Norm ist submultiplikativ. 4) Die Frobenius-Norm ist keine natürliche Matrixnorm *Hinweis: Verwenden Sie die Cauchy-Shwarz-Ungleichung für die Teilaufgaben* Definition Norm: Sei $V$ ein Vektorraum über $\mathbb{R}$. Eine Abbildung $||\cdot||: V\to \mathbb{R}_+=\{x\in\mathbb{R}:x\geq 0\}$ heißt **Norm** auf $V$, falls gilt: 1) $||x|| >0$ falls $x\neq 0, x\in V$ (Definitheit) 2) $||\alpha x|| = |\alpha|||x||,x\in V, \alpha \in \mathbb{R}$ (positive Homogenität) 3) $||x+y||\leq ||x|| +||y||, x,y\in V$ (Dreiecksungleichung) #### **zz: Die Frobenius-Norm definiert eine Norm auf $\mathbb{R}^{n\times n}$** $||x|| >0$ falls $x\neq 0, x\in V$ (Definitheit) Es handelt sich hier um die Summe von nicht-negativen Zahlen, welche per Definition somit auch nicht-negativ sein kann. Da $x\geq 0,~x\neq 0$ definiert ist, heißt dass das es Paare $(i,j)$ gibt mit $a_{ij}\neq 0$. Diese werden quadriert und sind somit ebenfalls nicht 0, jedoch sind diese zwagsweise dann positiv. Somit gilt dann auch die Definitheit 2) $||\alpha x|| = |\alpha|||x||,x\in V, \alpha \in \mathbb{R}$ (positive Homogenität) $\begin{split}||\alpha x|| =& ||\alpha A ||_F \\=& (\sum\limits_{i,j=1}^n|\alpha a_{ij}|^2)^\frac12\\ =& (|\alpha|^2 \sum\limits_{i,j=1}^n|a_{ij}|^2)^\frac12\\ =& |\alpha| (\sum\limits_{i,j=1}^n |a_{ij}|^2)^\frac12\\ =& |\alpha| \cdot || A||_F \\=& |\alpha|\cdot ||x||\end{split}$ 3) $||x+y||\leq ||x|| +||y||, x,y\in V$ (Dreiecksungleichung) **Minkoswki-Ungleichung:** $(\sum\limits_{i,j=1}^n|a_{ij}+b_{ij}|^2)^\frac12\leq(\sum\limits_{i,j=1}^n(|a_{ij}|+|b_{ij}|)^2)^\frac12$ $\begin{split}||A+B||_F=&(\sum\limits_{i,j=1}^n|a_{ij}+b_{ij}|^2)^\frac12\\ =&(\sum\limits_{i,j=1}^n|a_{ij}|^2+2\cdot \sum\limits_{i,j=1}^n|a_{ij}b_{ij}|+\sum\limits_{i,j=1}^n|b_{ij}|^2)^\frac12\\ =&(\sum\limits_{i,j=1}^n|a_{ij}|^2+2\cdot ((\sum\limits_{i,j=1}^n |a_{ij}|^2)^\frac12\cdot (\sum\limits_{i,j=1}^n|b_{ij}|^2)^\frac12+\sum\limits_{i,j=1}^n|b_{ij}|^2)^\frac12\\ \leq& (||A||_F^2+2||A||_F||B||_F+||B||_F^2)^\frac12\\ =&(||A||_F+||B||_F)² \end{split}$ #### 2. Verträglichkeit mit der euklidischen $||\cdot ||_2$ zz: $||Ax||_2\leq C||A||_F||x||_2$ $||Ax||_2^2$: $||Ax||_2^2 = (Ax)^T (Ax) = x^T A^T A x$ Da $A^T A$ eine symmetrische, positive semidefinite Matrix ist, können wir die Spektralnorm $||A||_2$ verwenden. Diese ist durch die Frobenius-Norm nach oben beschränkt: $||A||_2 \leq ||A||_F$ Somit gilt: $||Ax||_2 \leq ||A||_2 ||x||_2 \leq ||A||_F ||x||_2$ #### 3. Die Frobenius-Norm ist submulitplikativ $||AB||_F^2 = \sum_{i,j=1}^n |(AB)_{ij}|^2$ Der Eintrag $(AB)_{ij}$ ist gegeben durch: $(AB)_{ij} = \sum_{k=1}^n a_{ik} b_{kj}$ Anwendung Cauchy-Schwarz-Ungleichung $|(AB)_{ij}|^2 = \left| \sum_{k=1}^n a_{ik} b_{kj} \right|^2 \leq \left( \sum_{k=1}^n |a_{ik}|^2 \right) \left( \sum_{k=1}^n |b_{kj}|^2 \right)$ $\sum_{i,j=1}^n |(AB)_{ij}|^2 \leq \sum_{i,j=1}^n \left( \sum_{k=1}^n |a_{ik}|^2 \right) \left( \sum_{k=1}^n |b_{kj}|^2 \right)$ Da die Summation über $i$ und $j$ unabhängig voneinander ist, können wir die Summe aufteilen: $\sum_{i=1}^n \left( \sum_{j=1}^n |(AB)_{ij}|^2 \right) \leq \sum_{i=1}^n \left( \sum_{k=1}^n |a_{ik}|^2 \right) \left( \sum_{j=1}^n |b_{kj}|^2 \right)$ $\implies$ $||AB||_F^2 \leq \left( \sum_{i,k=1}^n |a_{ik}|^2 \right) \left( \sum_{k,j=1}^n |b_{kj}|^2 \right) = ||A||_F^2 ||B||_F^2$ $\implies$ Wurzelziehen $||AB||_F \leq ||A||_F ||B||_F$ #### 4. Die Frobenius-Norm ist keine natürliche Matrixnorm Eine natürliche Matrixnorm $||\cdot ||$ erfüllt die Bedingung $||\mathbb{1}||=1$. Für die Frobenius Norm gilt: $||\mathbb{1}||_F=(\sum\limits_{i,j=1}^n|\mathbb{1}_{ij}|²)^\frac12=(\sum\limits_{i=1}^n1^2)^\frac12=\sqrt{n}\neq 1$ # Aufgabe 8.2: Sherman-Morrison-Formel #### 1.) Es seien Vektoren $u\neq 0\in \mathbb{R}^n,v\neq 0 \in \mathbb{R}^n$ gegeben. Zeigen Sie, dass die Matrizen $uv^T\in \mathbb{R}^{n\times n}$ und $vu^T \in \mathbb{R}^{n\times n}$ Rang 1 haben. Seien $u,v\in\mathbb{R}^n$ und es gelte $u,v\neq 0$. Wir bezeichnen die Matrizen $uv^T$ und $vu^T$ mit $A$ und $B$. Dann gilt: $A_{ik}=\sum_{j=1}^ma_{ij}\cdot b_{jk}$. Da die Vektoren beide $\neq0$ sind gilt für ihren Rang: $\rg(u)=\rg(v)=1$. Aus der linearen Algebra wissen wir, dass $\rg(u)=\rg(u^T)$ gilt. Nach der Rangungleichhung von Sylvester wissen wir das für 2 Matrizen $C\in m \times n$ und $C'\in n\times l,$ $\rg (C ) + \rg(C') -n \leq \rg(A\cdot B) \leq \min(\rg(C), \rg(B))$ gelten muss. Für $A\in \mathbb{R}^{n\times n}$ gilt daher: $\rg (u) + \rg(v^T) -n \leq \rg(u\cdot v^T) \leq \min(\rg(u), \rg(v^T))$. Wir haben nun also obere und untere Grenzen für den rang(A) vorgegeben. Für die untere Schranke gilt also, $\rg(u)+\rg(v^T)-n=1$, für die obere Schranke gilt: $\min(\rg(u),\rg(v))=1$. Damit gilt für den Rang von A: $\rg(A)=1$ #### 2.) Beweisen Sie die Sherman-Morrison-Formel: Sei $A\in \mathbb{R}^{n\times n}$ regulär, $u,v\in \mathbb{R}^n$ und $1+v^TA^{-1}u\neq 0$. Dann gilt $(A+uv^T)^{-1}=A^{-1} - \frac{A^{-1}uv^TA^{-1}}{1+v^TA^{-1}u}$ Sei $A$ eine reguläre Matrix, und $u,v\in \mathbb{R}^n$ und $1+v^TA^{-1}u\neq0$, dann können wir für beliebiges $u$ und $A$ ein $w\in \mathbb{R}^n$ finden, sodass gilt: $u=Aw$. Daraus folgt: $A+uv^T=A+Awv^T=A(I+wv^T)$, mit $I$ der Einheitsmatrix. Da die Matrix $A$ regulär ist, ist sie invertierbar. Für ihr Inverses gilt dann: $(A+uv^T)^{-1}=(I+wv^T)^{-1}A^{-1}=(I-\frac{wv^T}{1+v^Tw})A^{-1}$ Wenn wir jetzt $u=Aw$ Rücksubstituieren ergibt sich: $(A+uv^T)^{-1}=(I-\frac{A^{-1}uv^T}{1+v^TA^{-1}u})A^{-1}=A^{-1}-\frac{A^{-1}uv^TA^{-1}}{1+v^TA^{-1}u}$ # Aufgabe 8.3: LR-Zerlegung Gegeben sei das Gleichungssystem $Ax=b$ mit $A=\begin{pmatrix}0&-4&10&\frac{15}{2}\\-2&6&3&10\\2&-6&7&-\frac{11}{2}\\ -2&10&12&0\end{pmatrix}, b=\begin{pmatrix}52\\59\\-11\\-18\end{pmatrix}$ a.) Berechnen Sie mit angegebenen Rechenweg die LR-Zerlegung von $A$ mit Spaltenpivotisierung. Um den Tutoren die Arbeit etwas zu erleichtern wählen Sie bitte diese Pivotisierung: $P=\begin{pmatrix}0&1&0&0\\1&0&0&0 \\0&0&1&0\\0&0&0&1\end{pmatrix}$ Bestimmen Sie nun die Determinante von $A$ sowie die Matrix $A^{-1}$ und lösen Sie $Ax=b$ $P\cdot A=\begin{pmatrix}0&1&0&0\\1&0&0&0 \\0&0&1&0\\0&0&0&1\end{pmatrix}\cdot \begin{pmatrix}0&-4&10&\frac{15}{2}\\-2&6&3&10\\2&-6&7&-\frac{11}{2}\\ -2&10&12&0\end{pmatrix}=\begin{pmatrix}-2&6&3&10\\0&-4&10&\frac{15}{2}\\2&-6&7&-\frac{11}{2}\\ -2&10&12&0\end{pmatrix}$ $P\cdot A= L \cdot R$ #### 1. Schritt - Elimination $\begin{pmatrix}-2&6&3&10\\0&-4&10&\frac{15}{2}\\2&-6&7&-\frac{11}{2}\\ -2&10&12&0\end{pmatrix}\text{ mit }\begin{matrix}L_{21}=-\frac{U_{21}}{U_{11}}=-\frac{0}{-2}=-0 \\ L_{31}=-\frac{U_{31}}{U_{11}}=-\frac{2}{-2}=1\\ L_{41}=-\frac{U_{41}}{U_{11}}=-\frac{-2}{-2}=-1 \end{matrix}$ $L_1=\begin{pmatrix}1&0&0&0\\0&1&?&?\\ 1&?&1&?\\-1&?&?&1 \end{pmatrix}$ $L_1\tilde A^{(1)}=\begin{pmatrix}-2&6&3&10\\0&-4&10&\frac{15}{2}\\0&0&10&\frac{9}{2}\\ 0&4&9&-10\end{pmatrix}$ #### 2. Schritt - Elimination $P_2=\begin{pmatrix}1&0&0&0\\0&0&0&1 \\0&0&1&0\\0&1&0&0\end{pmatrix}$ $\begin{pmatrix}-2&6&3&10\\0&4&9&-10\\ 0&0&10&\frac{9}{2}\\ 0&-4&10&-\frac{15}{2}\end{pmatrix}\text{ mit }\begin{matrix} L_{32}=\frac{U_{32}}{U_{22}}=\frac{0}{4}=-0\\L_{42}=-\frac{U_{42}}{U_{22}}=-\frac{-4}{4}=1 \end{matrix}$ $L_2=\begin{pmatrix}1&0&0&0\\0&1&?&?\\ 1&0&1&?\\-1&1&?&1 \end{pmatrix}$ $L_2\tilde A^{(2)}=\begin{pmatrix}-2&6&3&10\\0&4&9&-10\\ 0&0&10&\frac{9}{2}\\ 0&0&19&-\frac{35}{2}\end{pmatrix}$ #### 3. Schritt - Elimination $P_3=\begin{pmatrix}1&0&0&0\\0&1&0&0 \\0&0&0&1\\0&0&1&0\end{pmatrix}$ $\begin{pmatrix}-2&6&3&10\\0&4&9&-10\\ 0&0&10&\frac{9}{2}\\ 0&0&19&-\frac{35}{2}\end{pmatrix}\text{ mit } \begin{matrix}L_{43}=-\frac{U_{43}}{U_{33}}=-\frac{19}{10}\end{matrix}$ $L_3=\begin{pmatrix}1&0&0&0\\0&1&0&0\\ 1&0&1&0\\-1&1&-\frac{19}{10}&1 \end{pmatrix}$ $L_3\tilde A^{(3)}=\begin{pmatrix}-2&6&3&10\\0&4&9&-10\\ 0&0&10&\frac{9}{2}\\ 0&0&0&-\frac{521}{20}\end{pmatrix}=R$ $L=\begin{pmatrix}1&0&0&0\\0&1&0&0\\ 1&0&1&0\\-1&1&-\frac{19}{10}&1 \end{pmatrix}$ #### Determinante Die Determinante von $A$ ist das Produkt der Diagonalelemente von $R$: $\det(A) = (-2) \cdot 4 \cdot 10 \cdot \left( -\frac{521}{20} \right) = 2084$ #### Inverse Um die Inverse von $A$ zu berechnen, verwenden wir die LR-Zerlegung und lösen $Ax = \mathbb{1}$ für jede Spalte des Einheitsmatrix $I$. Dies wird durch Vorwärts- und Rückwärtseinsetzen durchgeführt. ### Lösung des Gleichungssystems \(Ax = b\) $P_b = \begin{pmatrix} 59 \\ 52 \\ -11 \\ -18 \end{pmatrix}$ 2. Vorwärtseinsetzen: $Ly = Pb$ $\begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 1 & 0 & 1 & 0 \\ -1 & 1 & -1.9 & 1 \end{pmatrix} \begin{pmatrix} y_1 \\ y_2 \\ y_3 \\ y_4 \end{pmatrix} = \begin{pmatrix} 59 \\ 52 \\ -11 \\ -18 \end{pmatrix}$ $y_1=59$ $y_2=52$ $y_3=59-11=48$ $y_4=-59+52+20.9-18=-4.1$ 3. Rückwärtseinsetzen: $Rx = y$ $\begin{pmatrix} -2 & 6 & 3 & 10 \\ 0 & 4 & 9 & -10 \\ 0 & 0 & 10 & \frac{9}{2} \\ 0 & 0 & 0 & -\frac{521}{20} \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix} = \begin{pmatrix} 59 \\ 52 \\ 48 \\ 4.1 \end{pmatrix}$ $x_4= −0.1574$ $x_3= 48-\frac92\cdot −0.1574=48.7083$ $x_2=\frac14 \cdot(52-(9\cdot 48.7083)-(-10\cdot −0.1574))=−96.20025$ $x_1=-\frac12\cdot(59-(6\cdot −96.20025)-(3\cdot 48.7083)-(10\cdot −0.1574)=−245.82585$ >berechnung inverse fehlt b.) Berechnen Sie die Konditionszahlen $cond_2(A)$ und $cond_\inf(A)$ :::danger todo ::: # Aufgabe 8.4: Eigenschaften der LR-Zerlegung a.) Zeigen Sie, dass die Menge der unteren Dreiecksmatrizen mit lauter Einsen auf der Hauptdiagonalen eine Untergruppe der invertierbaren Matrizen bilden (mit Matrixmulitplikation als Verknüpfung) zu zeigen: 1. $L$ unter der Matrixmultiplikation abgeschlossen ist. 2. $L$die Identitätsmatrix enthält. 3. Zu jeder Matrix $L \in L$ existiert eine Inverse $L^{-1} \in L$. **1. Abgeschlossenheit:** Seien $L_1, L_2 \in L$. Dann sind $L_1$ und $L_2$ untere Dreiecksmatrizen mit Einsen auf der Hauptdiagonalen. Betrachten wir das Produkt $L_1 L_2$. Da beides untere Dreiecksmatrizen sind, ist das Produkt $L_1 L_2$ ebenfalls eine untere Dreiecksmatrix. Zudem haben beide Einsen auf der Hauptdiagonalen. Die Hauptdiagonale von $L_1 L_2$ ist somit: $(L_1 L_2)_{ii} = \sum_{k=1}^n (L_1)_{ik} (L_2)_{ki} = (L_1)_{ii} (L_2)_{ii} = 1 \cdot 1 = 1$ Somit ist $L_1 L_2$ ebenfalls eine untere Dreiecksmatrix mit Einsen auf der Hauptdiagonalen, d.h. $L_1 L_2 \in L$. Die Menge $L$ ist also unter der Matrixmultiplikation abgeschlossen. **2. Identitätselement:** Die Identitätsmatrix $I \in \mathbb{R}^{n \times n}$ ist eine untere Dreiecksmatrix mit Einsen auf der Hauptdiagonalen, also $I \in L$. **3. Inverses Element:** Sei $L \in L$. Da $L$ eine untere Dreiecksmatrix mit Einsen auf der Hauptdiagonalen ist, ist $L$ invertierbar, und ihre Inverse $L^{-1}$ ist ebenfalls eine untere Dreiecksmatrix (weil die Inverse einer unteren Dreiecksmatrix wieder eine untere Dreiecksmatrix ist). Sei $L = I + N$, wobei $N$ eine strikt untere Dreiecksmatrix ist (alle Einträge auf der Hauptdiagonalen sind Null). Da $L$ invertierbar ist, existiert eine Potenzreihe für die Inverse: $L^{-1} = (I + N)^{-1} = I - N + N^2 - N^3 + \cdots$ Da $N$ strikt untere Dreiecksmatrix ist, bleibt jede Potenz von $N$ strikt untere Dreiecksmatrix. Das bedeutet, dass $I - N + N^2 - N^3 + \cdots$ ebenfalls eine untere Dreiecksmatrix mit Einsen auf der Hauptdiagonalen ist. Damit ist $L^{-1} \in L$. b.) Zeigen Sie: Wenn eine LR-Zerlegung $A=LR$ (ohne Permutation) existiert, so ist diese eindeutig. Sei $A=\tilde A\tilde R$ eine weiere LR-Zerlegung von $A$. Dann ist $LR=\tilde L \tilde R$ und somit $\tilde L^{-1}L=\tilde R R^{-1}$. $\tilde L^{-1}L$ und $\tilde R R^{-1}$ mit $\tilde L^{-1}L$ als untere Dreiecksmatrix und $\tilde R R^{-1}$ als obere Dreiecksmatrix, weshalb gilt: $\tilde L^{-1}L=\tilde R R^{-1}=\mathbb{1}_N$, weswegen $L=\tilde L$ und $R=\tilde R$ und somit ist die LR-Zerlegung eindeutig.