# Formulario / Eserciziario AL ###### tags: `formularioAL` ## Vettori e span #### Stabilire se dei vettori sono linearmente indipendenti 1. Si scrivono uno dopo l'altro nelle colonne di una matrice 2. Si applica Gauss alla matrice 3. > Se viene un pivot per colonna abbiamo che i vettori sono indipendenti > Altrimenti abbiamo che i vettori sono dipendenti #### Trovare il sottoinsieme di vettori indipendenti 1. > Se i vettori sono indipendenti ho finito > Altrimenti non lo sono, quindi togliamo un vettore a caso (di solito il primo oppure quello la cui colonna corrispondente nella matrice non aveva pivot) e ricomincio da capo #### Stabilire se un vettore dato appartiene allo span degli altri 1. Se l'insieme di vettori dato è dipendente ne estraiamo il sottoinsieme indipendente 2. Prendiamo i vettori e li inseriamo in ordine nelle colonne della matrice, aggiungiamo una colonna in fondo e ci mettiamo il vettore dato 3. > Facciamo Gauss alla matrice, se l'ultima colonna non ha pivot allora il vettore dato è dipendente e quindi appartiene allo span > Altrimenti il vettore dato è indipendente e quindi non appartiene allo span #### Stabilire se lo span di vettori genera lo spazio vettoriale dato 1. Si prende un vettore generalizzato che fa parte dello spazio vettoriale $b_1, \ldots, b_n$ e si applica l'algoritmo per Stabilire se un vettore dato appartiene allo span degli altri 2. > Se il vettore risulta appartenente allo span degli altri allora i vettori generano lo spazio > Altrimenti se non appartiene allo span degli altri allora i vettori non generano lo spazio #### Stabilire l'insieme dei vettori dipendenti o indipendenti rispetto ad un insieme di vettori dato 1. Si prende un vettore generalizzato $b_1, \ldots, b_n$ nello stesso spazio vettoriale degli altri e si applica l'algoritmo per Stabilire se dei vettori sono linearmente indipendenti 2. Prendiamo l'ultima colonna della matrice finale la matrice finale 3. Poniamo $= 0$ tutte le espressioni contenute nell'ultima colonna più in basso del pivot della colonna precedente. Quindi le mettiamo a sistema e se un vettore verifica il sistema allora è dipendente rispetto agli altri #### Elementi riguardanti le basi Se $dimV=n$ e $v_1,\ldots,v_r$ - Se $r>n$ allora $v_1,\ldots,v_r$ sono dipendenti - Se $r=n$ e $v_1,\ldots,v_r$ sono indipendenti allora $v_1,\ldots,v_r$ sono una base di $V$ - Se $r<n$ e $v_1,\ldots,v_r$ sono indipendenti allora si completano in una base di $V$ #### Dimensioni di insiemi noti - $dimR^n = n$ - $dimR[x]_{d\le n} = n+1$ - $dimV=\{\text{soluzioni dell'equazione } a_1x_1+\ldots+a_nx_n\} = n-1$ Se aggiungiamo un'equazione allora la dimensione diminuisce di $1$ perché diminuisce il numero di variabili libere #### Dimensione somma e intersezione di sottospazi Si usa la Formula di Grassmann $$ dim(V_1+V_2) = dimV_1+dimV_2-dim(V_1\cap V_2) $$ e quindi anche $$ dim(V_1\cap V_2) = dimV_1+dimV_2-dim(V_1+V_2) $$ #### Calcolare dimensione somma di due spazi 1. Si prendono le basi dei due spazi e le si mettono in una matrice, prima quella del primo e poi quella del secondo 2. Si fa Gauss alla matrice, il numero dei pivot è la dimensione della somma 3. Possiamo ora ricavare anche la dimensione dell'intersezione con Grassmann #### Dimensione $Ker$ e $Imm$ di un'applicazione lineare Data un'applicazione lineare $\phi : V_1\to V_2$ $$ dim(Ker(\phi)) + dim(Imm(\phi)) = dim(V_1)​ $$ #### Matrice associata ad un'applicazione lineare Data un'applicazione lineare $\phi : V\to W$ 1. Si trova l'immagine di ogni vettore della base di $V$, quindi si calcola $\phi(v)$ 2. Si scrive ogni immagine di ogni vettore della base di $V$ come combinazione lineare dei vettori della base di $W$ e per ciascuna si prendono le coordinate 3. Si scrive la matrice mettendo in colonna le coordinate dei vettori della base di $V$ Notiamo che la matrice avrà $m$ righe (dove $m$ è la dimensione di $W$), e $n$ colonne (dove $n$ è la dimensione di $V$) #### Dato un vettore $v$ calcolare $\phi (v)$ 1. Si prende la Matrice associata all'applicazione lineare 2. Si moltiplica la matrice per il vettore (che appartiene allo spazio di partenza altrimenti non si può fare) 3. Il risultato è l'immagine del vettore #### Matrice associata ad un'applicazione lineare che moltiplica al più per uno scalare il vettore in input con stesso spazio in partenza e in arrivo Dato uno spazio vettoriale $V$ con base $e_1, \ldots, e_n$ e data $\phi: V\to V$ tale che $\phi(e_1)=\lambda_1e_1,\quad\phi(e_2)=\lambda_2e_2,\quad\ldots,\quad\phi(e_n)=\lambda_ne_n$ allora la matrice associata sarà $$ \left[ \begin{matrix} \lambda_1 & 0 & \ldots & 0 \\ 0 & \lambda_2 & \ldots & 0 \\ \ldots & \ldots & \ldots & \ldots \\ 0 & 0 & \ldots & \lambda_n \\ \end{matrix} \right] $$ #### Calcolare $Ker(\phi)$ Data la matrice associata all'applicazione lineare $\phi : \mathbb{R}^n \to \mathbb{R}^m$ $$ A= \left[ \begin{matrix} a_{11} & \ldots & a_{1n} \\ \ldots & \ldots & \ldots \\ a_{m1} & \ldots & a_{mn} \\ \end{matrix} \right] $$ $Ker(\phi)$ corrisponde alla soluzione del sistema omogeneo $$ a_{11}x_1 + \ldots + a_{1n}x_n = 0\\ \vdots \qquad \vdots \qquad\vdots \\ a_{m1}x_1 + \ldots + a_{mn}x_n = 0\\ $$ Lo possiamo anche risolvere con Gauss. Vedi dimensioni di insiemi noti riguardo equazioni omogenee #### Calcolare $Imm(\phi)$ Data la matrice associata all'applicazione lineare $\phi : \mathbb{R}^n \to \mathbb{R}^m$ $$ A= \left[ \begin{matrix} a_{11} & \ldots & a_{1n} \\ \ldots & \ldots & \ldots \\ a_{m1} & \ldots & a_{mn} \\ \end{matrix} \right] $$ $Imm(\phi)$ è lo $span$ delle colonne di $A$ in $\mathbb{R}^m$ Quindi $dim(Imm(\phi))$ corrisponderà alla dimensione dello $span$ delle colonne di $A$ anche chiamata rango di $A$ ovvero $rg(A)$ Il rango di una matrice è il numero di pivots che di ottengono se la si riduce con Gauss #### Isomorfismo Un'applicazione lineare è un isomorfismo se è biunivoca, quindi $Imm(\phi) = V_2$ e $Ker(\phi) = \{O\}$ Se $\phi$ è un isomorfismo allora $A$ associata è invertibile #### Matrice associata con basi di partenza e di arrivo Se $\mathcal{B}, \mathcal{B'}$ basi di $V$ - $[id]^{\mathcal{B}}_{\mathcal{B'}} = [\phi]_{\mathcal{B}}$, dove $\phi$ invia $\mathcal{B}$ su $\mathcal{B'}$ - $[id]^{\mathcal{B'}}_{\mathcal{B}} = [\phi^{-1}]_{\mathcal{B'}}$, dove $\phi^{-1}$ invia $\mathcal{B'}$ su $\mathcal{B}$ Inoltre $[id]^{\mathcal{B'}}_{\mathcal{B}}\cdot [id]^{\mathcal{B}}_{\mathcal{B'}} =[id]^{\mathcal{B'}}_{\mathcal{B'}}$ e $[id]^{\mathcal{B'}}_{\mathcal{B}}= ([id]^{\mathcal{B'}}_{\mathcal{B}})^{-1}$ #### Matrice di $\phi$ rispetto ad una base $B$ Data $\phi$ applicazione lineare da $V$ in $V$ e data una base $B$ di $V$. Sia $A$ matrice, $\phi$ è definita da $\phi:=v\to A\cdot v$, notiamo che $A$ può anche essere composta da una cola colonna, e quindi può essere un vettore. Posso ricavare la matrice di $\phi$ rispetto alla base $B$ 1. Si prende ogni colonna della matrice $A$ e la si scrive come combinazione lineare delle singole colonne della base $B$ 2. Si prendono tutte le coordinate e le si collocano in verticale all'interno di una matrice, quella è la matrice $[\phi]_B$ che ci interessa #### Matrice di cambiamento di base $$ [\phi]_{B'} = P^{-1}AP $$ Dove $B'$ è la base di destinazione in cui vogliamo rappresentare $\phi$ $P$ si dice matrice di cambio base. Solitamente $P = [id]^B_{B'}$ ## Determinante #### Determinante per matrici piccole Data una matrice quadrata $A_{n\times n}$ - Se $n=1$ allora $A=[a] \quad det(A) = a$ - Se $n=2$ allora $$ A= \left[ \begin{matrix} a & b \\ c & d \end{matrix} \right] \quad det(A) = ad-bc $$ - Se $n=3$ allora $$ A= \left[ \begin{matrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{33} \\ a_{31} & a_{32} & a_{33} \end{matrix} \right] \\ det(A) = a_{11}\left| \begin{matrix}a_{22} & a_{23} \\ a_{32} & a_{33} \end{matrix} \right| - a_{12}\left| \begin{matrix}a_{21} & a_{23} \\ a_{31} & a_{33} \end{matrix} \right| + a_{13}\left| \begin{matrix}a_{21} & a_{22} \\ a_{31} & a_{32} \end{matrix} \right| \\ = a_{11}a_{22}a_{33}-a_{11}a_{23}a_{32}- a_{12}a_{21}a_{33}+a_{12}a_{23}a_{31}+ a_{13}a_{21}a_{32}-a_{13}a_{22}a_{31} $$ #### Determinante di matrici triangolari superiori Data una matrice quadrata $A_{n\times n}$ triangolare superiore in alto a destra $$ A=\left[ \begin{matrix} a_{11} & \ldots & \ldots & \ldots \\ 0 & a_{22} & \ldots & \ldots \\ 0 & 0 & \ldots & \ldots \\ 0 & 0 & 0 & a_{nn} \\ \end{matrix} \right] \quad det(A) = a_{11}\cdot a_{22} \cdots a_{nn} $$ #### Operazioni di Gauss e Determinante - Scambiare due righe comporta $det(A) = -det(A)$ - Moltiplicare una riga per una costante $\lambda$ comporta $det(A) = \lambda det(A)$ - Sostituire una riga $R_i$ con $R_i+\lambda R_j$ non altera il determinante #### Determinante matrice trasposta $det(A) = det(A^t)$ #### Stimare se il determinante è zero $$ det(A)=0 \iff \text{le righe sono dipendenti} \\ det(A)=0 \iff \text{le colonne sono dipendenti} $$ #### Determinante e applicazioni lineari Data la matrice associata $A$ ad un'applicazione lineare $\phi:V \to V$ allora: $$ Ker(A) \neq 0 \iff Imm(A)\neq V \iff det(A)= 0 $$ Abbiamo anche che se $det(A)\neq0$ allora $\phi$ è un isomorfismo ed esiste la matrice inversa $A^{-1}$ #### Matrice aggiunta Data una matrice quadrata $A\in M_{n\times n} (\mathbb{R})$ la matrice aggiunta di $A$ è $\widetilde{A}$ i cui elementi $\widetilde a_{ij}$ sono definiti in questo modo $$ \tilde a_{ij} = (-1)^{i+j}\cdot det(A_{ji}) $$ Dove $A_{ji}$ è ottenuta rimuovendo la riga $j$ e la colonna $i$ #### Formula di Cramer $$ A\cdot \widetilde A = det(A) \cdot I $$ Dove $I$ è la matrice identità #### Determinante e matrice inversa $A^{-1}$ esiste se e solo se $det(A)\neq0$, in tal caso $$ det(A^{-1}) = {1 \over det(A)}​ $$ e anche $$ A^{-1} = {1 \over det(A)} \cdot \widetilde{A} $$ ## Autovalori e Autovettori #### Definizione Sia $V$ uno spazio vettoriale su $mathbb{R}$, $dim V < \infty$, $\phi:V\to V$ applicazione lineare, $\lambda \in \mathbb{R}$ è un autovalore di $\phi$ se $\exists v\neq 0$ in $V$ tale che $\phi(v) = \lambda\cdot v$ in tal caso $v$ è un autovettore associato a $\lambda$ #### Autospazio Dato un autovalore $\lambda \in \mathbb{R}$ gli autovettori associati a $\lambda$ assieme al vettore nullo $O$ formano sottospazio di $V$, tale sottospazio si dice autospazio e si indica con $V_{\lambda}$ perché associato all'autovalore scelto #### Diagonalizzazione $\phi$ è diagonalizzabile $\iff \exists$ base si $V$ costituita di autovettori di $\phi$ #### Metodo per decidere se $\phi$ è diagonalizzabile 1. Trovare gli autovalori > Se ci sono $n=dimV$ autovalori distinti allora è già diagonalizzabile (solitamente ci si spinge fino qui) > Altrimenti continuo 2. Trovare gli autovettori per ogni autovalore $\lambda_i$ e calcolare la dimensione dell'autospazio corrispondente $dimV_{\lambda_i}$ > $\sum dimV_{\lambda_i} = dim V \iff \phi$ è diagonalizzabile > Se la somma delle dimensioni di tutti gli autospazi generati è uguale alla dimensione di $V$ allora è diagonalizzabile > Se invece è minore sella dimensione di $V$ (non può mai essere maggiore) allora $\phi$ non è diagonalizzabile #### Trovare autovalori con il polinomio caratteristico Data $A \in M_{n\times n}$ si calcola il polinomio caratteristico di $A$ $$ P_A(t) := det(A-t\cdot I) $$ $t$ è una variabile. Abbiamo che $\lambda$ è un autovalore di $\phi$ se e solo se $\lambda$ è radice del polinomio caratteristico $P_A(t)$. Dove $A$ è la matrice di $\phi$ rispetto ad una base. #### Trovare gli autovettori per un singolo autovalore Dato un autovalore $\lambda$ 1. Si prende la matrice originale $A$ e la si moltiplica per un vettore colonna con una variabile $x, y, \ldots$ per ogni riga della matrice 2. Si eguaglia il tutto con il vettore colonna stesso moltiplicato per l'autovalore corrente 3. Per ogni riga della colonna avremo un'equazione del sistema: siccome A è sempre quadrata, il primo elemento della riga si moltiplica per la prima variabile del vettore colonna (quindi $x$) il secondo per $y$ e così via 4. Il risultato lo si eguaglia a $\lambda x$ se si tratta della prima riga, a $\lambda y$ se è la seconda riga e così via, creando un'equazione per ogni riga 5. Si risolve il sistema composto da tutte le equazioni-riga. La dimensione dell'autospazio $V_{\lambda}$ corrisponde al numero di variabili che scompaiono completamente nel sistema risolto $+1$ 6. Si ricorda che possiamo sommare le dimensioni di ciascun autospazio per vedere se $A$ è diagonalizzabile #### Molteplicità algebrica e geometrica degli autovalori La molteplicità algebrica di un autovalore è quante volte compare come radice del polinomio caratteristico La molteplicità geometrica (è sempre $\leq$ della molteplicità algebrica) Si calcola con $m_g(\lambda) = n - rango(A-\lambda\cdot Id_n)$ Una matrice $A$ è diagonalizzabile se e solo se la molteplicità geometrica e algebrica di ogni autovalore è la stessa #### Date due matrici capire se una può essere l'altra ma rispetto ad un'altra base Basta vedere se sono entrambi diagonalizzabili #### Capire se una matrice è diagonalizzabile in $\mathbb{R}$ o $\mathbb{C}$ Basta che almeno un autovalore del polinomio caratteristico sia complesso, in tal caso non è diagonalizzabile in $\mathbb{R}$ Notiamo che $A = \left[\begin{matrix} 0 & -1 \\ 0 & 0 \end{matrix}\right]$ è diagonalizzabile solo in $\mathbb{C}$ con $P_A(t)=t^2+1$ Ma vediamo che $A = \left[\begin{matrix} 1 & 1 \\ 0 & 1 \end{matrix}\right]$ non è diagonalizzabile nemmeno in $\mathbb{C}$ #### Matrici simmetriche: diagonalizzazione e autovalori Teorema spettrale: Tutte le matrici simmetriche sono diagonalizzabili e hanno autovalori in R #### Teorema della dimensione Basi diverse di uno stesso spazio vettoriale hanno stessa cardinalità