# Formulario / Eserciziario AL
###### tags: `formularioAL`
## Vettori e span
#### Stabilire se dei vettori sono linearmente indipendenti
1. Si scrivono uno dopo l'altro nelle colonne di una matrice
2. Si applica Gauss alla matrice
3. > Se viene un pivot per colonna abbiamo che i vettori sono indipendenti
> Altrimenti abbiamo che i vettori sono dipendenti
#### Trovare il sottoinsieme di vettori indipendenti
1. > Se i vettori sono indipendenti ho finito
> Altrimenti non lo sono, quindi togliamo un vettore a caso (di solito il primo oppure quello la cui colonna corrispondente nella matrice non aveva pivot) e ricomincio da capo
#### Stabilire se un vettore dato appartiene allo span degli altri
1. Se l'insieme di vettori dato è dipendente ne estraiamo il sottoinsieme indipendente
2. Prendiamo i vettori e li inseriamo in ordine nelle colonne della matrice, aggiungiamo una colonna in fondo e ci mettiamo il vettore dato
3. > Facciamo Gauss alla matrice, se l'ultima colonna non ha pivot allora il vettore dato è dipendente e quindi appartiene allo span
> Altrimenti il vettore dato è indipendente e quindi non appartiene allo span
#### Stabilire se lo span di vettori genera lo spazio vettoriale dato
1. Si prende un vettore generalizzato che fa parte dello spazio vettoriale $b_1, \ldots, b_n$ e si applica l'algoritmo per Stabilire se un vettore dato appartiene allo span degli altri
2. > Se il vettore risulta appartenente allo span degli altri allora i vettori generano lo spazio
> Altrimenti se non appartiene allo span degli altri allora i vettori non generano lo spazio
#### Stabilire l'insieme dei vettori dipendenti o indipendenti rispetto ad un insieme di vettori dato
1. Si prende un vettore generalizzato $b_1, \ldots, b_n$ nello stesso spazio vettoriale degli altri e si applica l'algoritmo per Stabilire se dei vettori sono linearmente indipendenti
2. Prendiamo l'ultima colonna della matrice finale la matrice finale
3. Poniamo $= 0$ tutte le espressioni contenute nell'ultima colonna più in basso del pivot della colonna precedente. Quindi le mettiamo a sistema e se un vettore verifica il sistema allora è dipendente rispetto agli altri
#### Elementi riguardanti le basi
Se $dimV=n$ e $v_1,\ldots,v_r$
- Se $r>n$ allora $v_1,\ldots,v_r$ sono dipendenti
- Se $r=n$ e $v_1,\ldots,v_r$ sono indipendenti allora $v_1,\ldots,v_r$ sono una base di $V$
- Se $r<n$ e $v_1,\ldots,v_r$ sono indipendenti allora si completano in una base di $V$
#### Dimensioni di insiemi noti
- $dimR^n = n$
- $dimR[x]_{d\le n} = n+1$
- $dimV=\{\text{soluzioni dell'equazione } a_1x_1+\ldots+a_nx_n\} = n-1$
Se aggiungiamo un'equazione allora la dimensione diminuisce di $1$ perché diminuisce il numero di variabili libere
#### Dimensione somma e intersezione di sottospazi
Si usa la Formula di Grassmann
$$
dim(V_1+V_2) = dimV_1+dimV_2-dim(V_1\cap V_2)
$$
e quindi anche
$$
dim(V_1\cap V_2) = dimV_1+dimV_2-dim(V_1+V_2)
$$
#### Calcolare dimensione somma di due spazi
1. Si prendono le basi dei due spazi e le si mettono in una matrice, prima quella del primo e poi quella del secondo
2. Si fa Gauss alla matrice, il numero dei pivot è la dimensione della somma
3. Possiamo ora ricavare anche la dimensione dell'intersezione con Grassmann
#### Dimensione $Ker$ e $Imm$ di un'applicazione lineare
Data un'applicazione lineare $\phi : V_1\to V_2$
$$
dim(Ker(\phi)) + dim(Imm(\phi)) = dim(V_1)
$$
#### Matrice associata ad un'applicazione lineare
Data un'applicazione lineare $\phi : V\to W$
1. Si trova l'immagine di ogni vettore della base di $V$, quindi si calcola $\phi(v)$
2. Si scrive ogni immagine di ogni vettore della base di $V$ come combinazione lineare dei vettori della base di $W$ e per ciascuna si prendono le coordinate
3. Si scrive la matrice mettendo in colonna le coordinate dei vettori della base di $V$
Notiamo che la matrice avrà $m$ righe (dove $m$ è la dimensione di $W$), e $n$ colonne (dove $n$ è la dimensione di $V$)
#### Dato un vettore $v$ calcolare $\phi (v)$
1. Si prende la Matrice associata all'applicazione lineare
2. Si moltiplica la matrice per il vettore (che appartiene allo spazio di partenza altrimenti non si può fare)
3. Il risultato è l'immagine del vettore
#### Matrice associata ad un'applicazione lineare che moltiplica al più per uno scalare il vettore in input con stesso spazio in partenza e in arrivo
Dato uno spazio vettoriale $V$ con base $e_1, \ldots, e_n$ e data $\phi: V\to V$ tale che $\phi(e_1)=\lambda_1e_1,\quad\phi(e_2)=\lambda_2e_2,\quad\ldots,\quad\phi(e_n)=\lambda_ne_n$
allora la matrice associata sarà
$$
\left[
\begin{matrix}
\lambda_1 & 0 & \ldots & 0 \\
0 & \lambda_2 & \ldots & 0 \\
\ldots & \ldots & \ldots & \ldots \\
0 & 0 & \ldots & \lambda_n \\
\end{matrix}
\right]
$$
#### Calcolare $Ker(\phi)$
Data la matrice associata all'applicazione lineare $\phi : \mathbb{R}^n \to \mathbb{R}^m$
$$
A= \left[
\begin{matrix}
a_{11} & \ldots & a_{1n} \\
\ldots & \ldots & \ldots \\
a_{m1} & \ldots & a_{mn} \\
\end{matrix}
\right]
$$
$Ker(\phi)$ corrisponde alla soluzione del sistema omogeneo
$$
a_{11}x_1 + \ldots + a_{1n}x_n = 0\\
\vdots \qquad \vdots \qquad\vdots \\
a_{m1}x_1 + \ldots + a_{mn}x_n = 0\\
$$
Lo possiamo anche risolvere con Gauss.
Vedi dimensioni di insiemi noti riguardo equazioni omogenee
#### Calcolare $Imm(\phi)$
Data la matrice associata all'applicazione lineare $\phi : \mathbb{R}^n \to \mathbb{R}^m$
$$
A= \left[
\begin{matrix}
a_{11} & \ldots & a_{1n} \\
\ldots & \ldots & \ldots \\
a_{m1} & \ldots & a_{mn} \\
\end{matrix}
\right]
$$
$Imm(\phi)$ è lo $span$ delle colonne di $A$ in $\mathbb{R}^m$
Quindi $dim(Imm(\phi))$ corrisponderà alla dimensione dello $span$ delle colonne di $A$ anche chiamata rango di $A$ ovvero $rg(A)$
Il rango di una matrice è il numero di pivots che di ottengono se la si riduce con Gauss
#### Isomorfismo
Un'applicazione lineare è un isomorfismo se è biunivoca, quindi $Imm(\phi) = V_2$ e $Ker(\phi) = \{O\}$
Se $\phi$ è un isomorfismo allora $A$ associata è invertibile
#### Matrice associata con basi di partenza e di arrivo
Se $\mathcal{B}, \mathcal{B'}$ basi di $V$
- $[id]^{\mathcal{B}}_{\mathcal{B'}} = [\phi]_{\mathcal{B}}$, dove $\phi$ invia $\mathcal{B}$ su $\mathcal{B'}$
- $[id]^{\mathcal{B'}}_{\mathcal{B}} = [\phi^{-1}]_{\mathcal{B'}}$, dove $\phi^{-1}$ invia $\mathcal{B'}$ su $\mathcal{B}$
Inoltre $[id]^{\mathcal{B'}}_{\mathcal{B}}\cdot [id]^{\mathcal{B}}_{\mathcal{B'}} =[id]^{\mathcal{B'}}_{\mathcal{B'}}$ e $[id]^{\mathcal{B'}}_{\mathcal{B}}= ([id]^{\mathcal{B'}}_{\mathcal{B}})^{-1}$
#### Matrice di $\phi$ rispetto ad una base $B$
Data $\phi$ applicazione lineare da $V$ in $V$ e data una base $B$ di $V$.
Sia $A$ matrice, $\phi$ è definita da $\phi:=v\to A\cdot v$, notiamo che $A$ può anche essere composta da una cola colonna, e quindi può essere un vettore.
Posso ricavare la matrice di $\phi$ rispetto alla base $B$
1. Si prende ogni colonna della matrice $A$ e la si scrive come combinazione lineare delle singole colonne della base $B$
2. Si prendono tutte le coordinate e le si collocano in verticale all'interno di una matrice, quella è la matrice $[\phi]_B$ che ci interessa
#### Matrice di cambiamento di base
$$
[\phi]_{B'} = P^{-1}AP
$$
Dove $B'$ è la base di destinazione in cui vogliamo rappresentare $\phi$
$P$ si dice matrice di cambio base.
Solitamente $P = [id]^B_{B'}$
## Determinante
#### Determinante per matrici piccole
Data una matrice quadrata $A_{n\times n}$
- Se $n=1$ allora $A=[a] \quad det(A) = a$
- Se $n=2$ allora
$$
A=
\left[
\begin{matrix}
a & b \\
c & d
\end{matrix}
\right]
\quad det(A) = ad-bc
$$
- Se $n=3$ allora
$$
A=
\left[
\begin{matrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{33} \\
a_{31} & a_{32} & a_{33}
\end{matrix}
\right]
\\
det(A) =
a_{11}\left| \begin{matrix}a_{22} & a_{23} \\ a_{32} & a_{33} \end{matrix} \right| -
a_{12}\left| \begin{matrix}a_{21} & a_{23} \\ a_{31} & a_{33} \end{matrix} \right| +
a_{13}\left| \begin{matrix}a_{21} & a_{22} \\ a_{31} & a_{32} \end{matrix} \right| \\
= a_{11}a_{22}a_{33}-a_{11}a_{23}a_{32}-
a_{12}a_{21}a_{33}+a_{12}a_{23}a_{31}+
a_{13}a_{21}a_{32}-a_{13}a_{22}a_{31}
$$
#### Determinante di matrici triangolari superiori
Data una matrice quadrata $A_{n\times n}$ triangolare superiore in alto a destra
$$
A=\left[
\begin{matrix}
a_{11} & \ldots & \ldots & \ldots \\
0 & a_{22} & \ldots & \ldots \\
0 & 0 & \ldots & \ldots \\
0 & 0 & 0 & a_{nn} \\
\end{matrix}
\right]
\quad
det(A) = a_{11}\cdot a_{22} \cdots a_{nn}
$$
#### Operazioni di Gauss e Determinante
- Scambiare due righe comporta $det(A) = -det(A)$
- Moltiplicare una riga per una costante $\lambda$ comporta $det(A) = \lambda det(A)$
- Sostituire una riga $R_i$ con $R_i+\lambda R_j$ non altera il determinante
#### Determinante matrice trasposta
$det(A) = det(A^t)$
#### Stimare se il determinante è zero
$$
det(A)=0 \iff \text{le righe sono dipendenti} \\
det(A)=0 \iff \text{le colonne sono dipendenti}
$$
#### Determinante e applicazioni lineari
Data la matrice associata $A$ ad un'applicazione lineare $\phi:V \to V$ allora:
$$
Ker(A) \neq 0 \iff Imm(A)\neq V \iff det(A)= 0
$$
Abbiamo anche che se $det(A)\neq0$ allora $\phi$ è un isomorfismo ed esiste la matrice inversa $A^{-1}$
#### Matrice aggiunta
Data una matrice quadrata $A\in M_{n\times n} (\mathbb{R})$ la matrice aggiunta di $A$ è $\widetilde{A}$ i cui elementi $\widetilde a_{ij}$ sono definiti in questo modo
$$
\tilde a_{ij} = (-1)^{i+j}\cdot det(A_{ji})
$$
Dove $A_{ji}$ è ottenuta rimuovendo la riga $j$ e la colonna $i$
#### Formula di Cramer
$$
A\cdot \widetilde A = det(A) \cdot I
$$
Dove $I$ è la matrice identità
#### Determinante e matrice inversa
$A^{-1}$ esiste se e solo se $det(A)\neq0$, in tal caso
$$
det(A^{-1}) = {1 \over det(A)}
$$
e anche
$$
A^{-1} = {1 \over det(A)} \cdot \widetilde{A}
$$
## Autovalori e Autovettori
#### Definizione
Sia $V$ uno spazio vettoriale su $mathbb{R}$, $dim V < \infty$, $\phi:V\to V$ applicazione lineare,
$\lambda \in \mathbb{R}$ è un autovalore di $\phi$ se $\exists v\neq 0$ in $V$ tale che $\phi(v) = \lambda\cdot v$
in tal caso $v$ è un autovettore associato a $\lambda$
#### Autospazio
Dato un autovalore $\lambda \in \mathbb{R}$ gli autovettori associati a $\lambda$ assieme al vettore nullo $O$ formano sottospazio di $V$,
tale sottospazio si dice autospazio e si indica con $V_{\lambda}$ perché associato all'autovalore scelto
#### Diagonalizzazione
$\phi$ è diagonalizzabile $\iff \exists$ base si $V$ costituita di autovettori di $\phi$
#### Metodo per decidere se $\phi$ è diagonalizzabile
1. Trovare gli autovalori
> Se ci sono $n=dimV$ autovalori distinti allora è già diagonalizzabile (solitamente ci si spinge fino qui)
> Altrimenti continuo
2. Trovare gli autovettori per ogni autovalore $\lambda_i$ e calcolare la dimensione dell'autospazio corrispondente $dimV_{\lambda_i}$
> $\sum dimV_{\lambda_i} = dim V \iff \phi$ è diagonalizzabile
> Se la somma delle dimensioni di tutti gli autospazi generati è uguale alla dimensione di $V$ allora è diagonalizzabile
> Se invece è minore sella dimensione di $V$ (non può mai essere maggiore) allora $\phi$ non è diagonalizzabile
#### Trovare autovalori con il polinomio caratteristico
Data $A \in M_{n\times n}$ si calcola il polinomio caratteristico di $A$
$$
P_A(t) := det(A-t\cdot I)
$$
$t$ è una variabile.
Abbiamo che $\lambda$ è un autovalore di $\phi$ se e solo se $\lambda$ è radice del polinomio caratteristico $P_A(t)$. Dove $A$ è la matrice di $\phi$ rispetto ad una base.
#### Trovare gli autovettori per un singolo autovalore
Dato un autovalore $\lambda$
1. Si prende la matrice originale $A$ e la si moltiplica per un vettore colonna con una variabile $x, y, \ldots$ per ogni riga della matrice
2. Si eguaglia il tutto con il vettore colonna stesso moltiplicato per l'autovalore corrente
3. Per ogni riga della colonna avremo un'equazione del sistema: siccome A è sempre quadrata, il primo elemento della riga si moltiplica per la prima variabile del vettore colonna (quindi $x$) il secondo per $y$ e così via
4. Il risultato lo si eguaglia a $\lambda x$ se si tratta della prima riga, a $\lambda y$ se è la seconda riga e così via, creando un'equazione per ogni riga
5. Si risolve il sistema composto da tutte le equazioni-riga. La dimensione dell'autospazio $V_{\lambda}$ corrisponde al numero di variabili che scompaiono completamente nel sistema risolto $+1$
6. Si ricorda che possiamo sommare le dimensioni di ciascun autospazio per vedere se $A$ è diagonalizzabile
#### Molteplicità algebrica e geometrica degli autovalori
La molteplicità algebrica di un autovalore è quante volte compare come radice del polinomio caratteristico
La molteplicità geometrica (è sempre $\leq$ della molteplicità algebrica)
Si calcola con $m_g(\lambda) = n - rango(A-\lambda\cdot Id_n)$
Una matrice $A$ è diagonalizzabile se e solo se la molteplicità geometrica e algebrica di ogni autovalore è la stessa
#### Date due matrici capire se una può essere l'altra ma rispetto ad un'altra base
Basta vedere se sono entrambi diagonalizzabili
#### Capire se una matrice è diagonalizzabile in $\mathbb{R}$ o $\mathbb{C}$
Basta che almeno un autovalore del polinomio caratteristico sia complesso, in tal caso non è diagonalizzabile in $\mathbb{R}$
Notiamo che $A = \left[\begin{matrix} 0 & -1 \\ 0 & 0 \end{matrix}\right]$ è diagonalizzabile solo in $\mathbb{C}$ con $P_A(t)=t^2+1$
Ma vediamo che $A = \left[\begin{matrix} 1 & 1 \\ 0 & 1 \end{matrix}\right]$ non è diagonalizzabile nemmeno in $\mathbb{C}$
#### Matrici simmetriche: diagonalizzazione e autovalori
Teorema spettrale:
Tutte le matrici simmetriche sono diagonalizzabili e hanno autovalori in R
#### Teorema della dimensione
Basi diverse di uno stesso spazio vettoriale hanno stessa cardinalità