# Spazi vettoriali ###### tags: `al` ###### <span style="color: #e53935">Definizione</span> Uno **spazio vettoriale** su un campo $\mathbb{K}$ è un insieme $V$ su cui sono definite la **somma** (o addizione) fra due elementi di $V$ (il cui risultato è ancora un elemento di $V$, si dice che $V$ è **chiuso per la somma**), e il **prodotto** di un elemento del campo $\mathbb{K}$ per un elemento di $V$ (il cui risultato è un elemento di $V$ si dice che $V$ è **chiuso per il prodotto** con elementi di $\mathbb{K}$) che verificano le seguenti proprietà: - $\forall \; u,v,w \in V$ vale $(u+v) +w=u+ (v+w)$ (proprietà associativa dell'addizione). - $\forall v,w\in V$ vale $v+w=w+v$ (proprietà commutativa dell'addizione). - Esiste $O\in V$ tale che $\forall v\in V$ vale $v+O=v$ ($O$ è l'elemento neutro per l'addizione). - $\forall v\in V$ esiste un elemento $w$ in $V$ tale che $v+w=O$ (esistenza dell'opposto per l'addizione). - $\forall \lambda,\mu\in \mathbb{K} \; \forall v,w \in V$ vale $\lambda(v+w)=\lambda v+\lambda w$ e anche $(\lambda +\mu)v=\lambda v+\mu v$ (proprietà distributiva della moltiplicazione per scalare). - $∀\lambda,\mu \in \mathbb{K},\forall v\in V$ vale $(\lambda \mu)v=\lambda(\mu v)$ (proprietà associativa della moltiplicazione per scalare). - $∀v∈V$ vale $1v=v$ (proprietà di esistenza dell'invariante moltiplicativo). ###### <span style="color: #ffc107">Osservazione</span> È molto importante sottolineare la differenza tra l'elemento neutro della somma vettoriale $O$ e lo $0$ elemento neutro della somma di $\mathbb{K}$: in particolare $O$ è un vettore, appartiene a $V$, mentre $0$ è uno scalare di $K$. Il prodotto scalare tra lo scalare $0$ e qualsiasi vettore di $V$ restituisce l'elemento neutro della somma vettoriale $O$. Lo $O$ elemento neutro della somma è l'elemento $(0,0)$ di $R^2$. #### Sottospazi vettoriali ###### <span style="color: #e53935">Definizione</span> Un **sottospazio vettoriale** $W$ di $V$ è un sottoinsieme $W\subseteq V$ che (rispetto alle operazioni $+$ e $\cdot$ che rendono $V$ uno spazio vettoriale su $\mathbb{K}$) è uno spazio vettoriale su $\mathbb{K}$. Chiameremo **sottospazio proprio** (o non banale) di $V$ un qualsiasi sottospazio vettoriale di $V$ che sia diverso da $V$ e dal sottospazio $\{O\}$. ###### <span style="color: #64b5f6">Proposizione</span> Dato $V$ spazio vettoriale su $\mathbb{K}$ e $W$ sottoinsieme di $V,W$ è sottospazio vettoriale di $V$ (rispetto alle operazioni $+$ e $\cdot$ che rendono $V$ uno spazio vettoriale su $\mathbb{K}$) se e solo se: 1. Il vettore $O$ appartiene a $W$. 2. Per ogni $u,v\in W$ vale $u+v\in W$. 3. Per ogni $k\in K$ e per ogni $u\in W$ vale $ku\in W$. ###### Dimostrazione Se $W$ è un sottospazio vettoriale di $V$ deve verificare tutte le proprietà di spazio vettoriale su $\mathbb{K}$ e dunque le tre proprietà elencate devono valere. Verifichiamo il viceversa, ovvero che se valgono le tre proprietà esplicitate nella proposizione (esistenza dell'elemento neutro della somma e chiusura per somma vettoriale e moltiplicazione per scalare) allora $W$ è sottospazio. Dobbiamo provare che valgono tutte le altre proprietà che definiscono uno spazio vettoriale. Dal fatto che valgono in $V$, segue immediatamente che valgono in $W$ la proprietà associativa e commutativa dell'addizione, la proprietà distributiva e associativa della moltiplicazione per scalare, e l'esistenza dell'invariante moltiplicativo (infatti questo appartiene al campo $\mathbb{K}$ ed ha la proprietà che moltiplicato per ogni elemento $v$ di $V$, e dunque a maggior ragione di $W$, restituisce $v$). Rimane dunque solo da provare l'esistenza in $W$, per ogni elemento $w$ di $W$, dell'opposto per l'addizione. Ma sappiamo che l'opposto di $w$ è il risultato del prodotto scalare tra $−1$ e $w$, ed essendo $W$ chiuso per prodotto scalare, $−1w$ è un elemento di $W$. ###### <span style="color: #ffc107">Osservazione</span> Su alcuni libri di testo si può trovare al posto della proprietà che il vettore $O$ appartenga a $W$ il fatto che $W$ sia diverso dal vuoto, cioè contenga almeno un elemento. In effetti se $v$ è un elemento di $W$, allora dal fatto che $W$ è chiuso per prodotto con scalari (terza proprietà) e dal fatto che $0\cdot v=O$ si ha che $O\in W$. Viceversa, per definizione, se $O\in W$ allora $W$ non è vuoto. Dunque richiedere che $O$ appartenga a $W$ equivale a richiedere che $W$ non sia vuoto. #### Intersezione e somma di sottospazi vettoriali Dati due sottospazi vettoriali $U$ e $W$ di uno spazio vettoriale $V$, siamo interessati a cercare di caratterizzare, se esistono, il più piccolo sottospazio vettoriale di $V$ che contenga sia $U$ che $W$, e il più grande sottospazio vettoriale di $V$ contenuto sia in $U$ che in $W$. ###### <span style="color: #64b5f6">Proposizione</span> Sia $V$ uno spazio vettoriale su un campo $\mathbb{K},U\text{ e }W$ due sottospazi di $V$, allora $U\cap W$ è un sottospazio vettoriale di $V$. ###### Dimostrazione Dobbiamo mostrare che $U\cap W$ verifica le proprietà della definizione: 1. $O\in U\cap W$, infatti essendo $U$ e $W$ due sottospazi, certamente $O\in U$ e $O\in W$. 2. Siano $v_1,v_2\in U\cap W$ allora: $$ \begin{cases} \underbrace{v_1+v_2\in U}_{U \text{ è sottospazio}} \\ \underbrace{v_1+v_2\in W}_{W \text{ è sottospazio}} \end{cases} \Rightarrow v_1+v_2 \in U\cap W $$ 3. Sia $v\in U\cap W$ allora per ogni $\lambda\in\mathbb{K}$ si ha: $$ \begin{cases} \underbrace{\lambda \cdot v\in U}_{U \text{ è sottospazio}} \\ \underbrace{\lambda \cdot v\in W}_{W \text{ è sottospazio}} \end{cases} \Rightarrow \lambda \cdot v \in U\cap W $$ ###### <span style="color: #e53935">Definizione</span> Dati due sottospazi vettoriali $U$ e $W$ di uno spazio vettoriale $V$ su $\mathbb{K}$, chiamo **somma** di $U$ e $W$ l'insieme $$ U+W= \{u+w|u\in U,w\in W\} $$ ###### <span style="color: #64b5f6">Proposizione</span> La seguente proposizione fornisce la risposta alla nostra ricerca del più piccolo sottospazio contenente sia $U$ che $W$: è $U+W$ appena definito. Dati due sottospazi vettoriali $U$ e $W$ di uno spazio vettoriale $V$ su $\mathbb{K}$, $U+W$ è un sottospazio vettoriale di $V$ (ed è il più piccolo contenente $U$ e $W$). ###### Dimostrazione $O$ appartiene ad $U+W$, infatti appartiene sia ad $U$ che a $W$ dunque: $$ O=\underbrace{O}_{\in U}+\underbrace{O}_{\in W} $$ Ora dati $a\in \mathbb{K}$ e $x,y\in U+W$, per definizione di $U+W$ esistono $u_1,u_2 $ in $U$ e $w_1,w_2$ in $W$ tali che: $x=u_1+w_1$ e $y=u_2+w_2$. Dunque: $$ x+y= (u_1+w_1) + (u_2+w_2) = \underbrace{(u_1+u_2)}_{\in U}+ \underbrace{(w_1+w_2)}_{\in W} \in U+W \\ ax=a(u_1+w_1) = \underbrace{au_1}_{\in U}+ \underbrace{aw_1}_{\in W}\in U+W $$ #### Combinazione lineare Sia $V$ uno spazio vettoriale su un campo $\mathbb{K}$. Per definizione di $V$, se $v_1,v_2,\ldots,v_n$ sono $n$ vettori di $V$, allora per qualsiasi scelta di $n$ elementi $k_1,k_2,\ldots,k_n$ (non necessariamente distinti) di $\mathbb{K}$ il vettore: $$ v=k_1v_1+\ldots+k_nv_n=\sum_{i=1}^nk_iv_i $$ appartiene a $V$, in quanto $V$ è chiuso per somma vettoriale e prodotto per scalare. ###### <span style="color: #e53935">Definizione</span> Combinazione lineare Dato un insieme di vettori $\{v_1,v_2,\ldots,v_k\}$ di $V$, spazio vettoriale sul campo $\mathbb{K}$, il vettore: $$ v=k_1\cdot v_1+\ldots+k_n·v_n $$ con $\{k_1,k_2,\ldots,k_n\}$ scalari di $\mathbb{K}$, si dice una **combinazione lineare** dei vettori $\{v_1,v_2,\ldots,v_k\}$. I $k_i$ sono detti **coefficienti** della combinazione lineare. #### Span ###### <span style="color: #e53935">Definizione</span> Dati $\{v_1,v_2,\ldots,v_t\}$ vettori di uno spazio vettoriale $V$ sul campo $\mathbb{K}$, si definisce **span** dei vettori $v_1,\ldots,v_t$ (e si indica con $Span(v_1,v_2,\ldots,v_t)$ o anche con $< v_1,v_2,\ldots,v_t>$) **l'insieme di tutte le possibili combinazioni lineari** dell'insieme di vettori $\{v_1,v_2,\ldots,v_t\}$. #### Generatori ###### <span style="color: #e53935">Definizione</span> Un insieme di vettori $\{v_1,v_2,\ldots,v_t\}$ di $V$ per cui $V=Span(v_1,\ldots,v_t)$ (ovvero per ogni $v\in V$, esistono degli scalari $a_1,a_2,\ldots,a_t$ tali che $$ a_1v_1+a_2v_2+\cdots+a_tv_t=v $$ si dice **un insieme di generatori** di $V$. In tal caso si dice anche che i vettori $v_1,v_2,\ldots,v_k$ generano (sono **generatori** di) $V$. #### Vettori linearmente dipendenti e indipendenti ###### <span style="color: #e53935">Definizione</span> Si dice che un insieme finito di vettori $\{v_1,v_2,\ldots,v_r\}$ è un insieme di vettori **linearmente indipendenti** se l'unico modo di scrivere il vettore $O$ come combinazione lineare di questi vettori è con tutti i coefficienti nulli, ossia se $$ a_1v_1+a_2v_2+\cdots+a_rv_r=O \iff a_1=a_2=\cdots=a_r=0 $$ Talvolta si dice anche, più brevemente, che i vettori $v_1,v_2,\ldots,v_r$ sono linearmente indipendenti. Se invece i vettori $v_1,v_2,\ldots,v_r$ NON sono linearmente indipendenti, si dice che sono **linearmente dipendenti** (o che l'insieme $\{v_1,v_2,\ldots,v_r\}$ è un insieme di vettori linearmente dipendenti). ###### <span style="color: #64b5f6">Proposizione</span> Indipendenza da uno spazio vettoriale Un insieme $A=\{v_1,\ldots,v_n\}$ di vettori di uno spazio vettoriale $V$ su $\mathbb{K}$ è un insieme di vettori linearmente indipendenti se e solo se nessun $v_i$ appartenente ad $A$ si può scrivere come combinazione lineare dell'insieme $B=A\backslash\{v_i\}$ (ovvero $v_i$ non appartiene a $Span(B))$. ###### Dimostrazione - $\Rightarrow$) Sia $A$ un insieme di vettori linearmente indipendenti e supponiamo per assurdo che esista un $v_i$ che si scriva come combinazione lineare dei vettori di $A$ diversi da lui. Possiamo senza perdere di generalità supporre che tale vettore sia quello che abbiamo indicato con $v_1$, e dunque stiamo supponendo che $v_1\in Span(v_2,\ldots,v_n)$, ovvero che esistono $n−1$ scalari $a_2,\ldots,a_n$ di $\mathbb{K}$ tali che: $$ \underbrace {\sum^n_{i=2}a_i\cdot v_i}_{a_2\cdot v_2+\ldots+a_n\cdot v_n} =v_1 $$ Ma da questa, aggiungendo ad entrambi i membri dell'uguaglianza l'opposto di $v_1$,seguirebbe che: $$ a_2\cdot v_2+\ldots+a_n\cdot v_n−v_1=O $$ Ovvero avremmo trovato una combinazione lineare non nulla (perché il coefficiente di $v_1$ è uguale a $−1$ dei vettori di $A$, contro l'ipotesi che $A$ sia un insieme di vettori linearmente indipendenti. - $\Leftarrow$) Siano i vettori di $A$ tali che nessuno di loro si può scrivere come combinazione lineare degli altri vettori di $A$. Supponiamo per assurdo che $A$ sia un insieme di vettori linearmente dipendenti. Allora devono esistere $n$ scalari $$, non tutti nulli, tali che: $$ \underbrace {\sum^n_{i=1}a_i\cdot v_i}_{a_1\cdot v_1+\ldots+a_n\cdot v_n} =O $$ Non essendo, per ipotesi, i coefficienti tutti nulli, almeno uno dei coefficienti deve essere diverso da zero. Eventualmente riordinando l'ordine dei vettori (dovrebbe essere abbastanza ovvio che la dipendenza lineare di un insieme di vettori non dipende dall'ordine in cui si elencano) possiamo supporre che sia $a_1$ diverso da $0$, e scrivere: $$ \sum^n_{i=2}-a_i\cdot v_i =a_1\cdot v_1 $$ Ed essendo $a_1\in\mathbb{K}$ diverso da $0$, esiste l'inverso $a^{−1}_1$ di $a_1$ in $\mathbb{K}$. Moltiplicando per questo inverso otteniamo: $$ \sum^n_{i=2}{−a_i\over a_1}\cdot v_i=v_1 $$ Ottenendo, contro l'ipotesi iniziale, che $v_1$ è combinazione lineare di $v_2,\ldots,v_n$. ###### <span style="color: #ffc107">Osservazione</span> Da un insieme di vettori linearmente dipendenti se ne può estrarre uno più piccolo indipendente, rimuovendo i vettori che risultano poter essere scritti come combinazione lineare degli altri. #### Base ###### <span style="color: #e53935">Definizione</span> Sia $V$ uno spazio vettoriale su $\mathbb{K}$, un insieme di vettori $\{v_1,v_2,\ldots,v_n\}$ di $V$, che genera lo spazio $V$ e che è un insieme di vettori linearmente indipendenti si dice una **base** (finita) di $V$. ###### <span style="color: #ffc107">Osservazione</span> Nella definizione è specificato _finita_. Non sempre uno spazio vettoriale ammette un numero finito di generatori, e di conseguenza nemmeno una base finita. Un caso che abbiamo incontrato di spazio vettoriale che non ammette una base finita è lo spazio vettoriale $\mathbb{K}[x]$ dei polinomi a coefficienti in $\mathbb{K}$. Basta osservare che i termini di grado $n$ di un polinomio, si ottengono solo inserendo nell'insieme dei generatori un polinomio che contenga $a_nx^n$ con $a_n$ diverso da $0$ (perché?). A questo punto sorge spontanea la domanda: ma tale spazio vettoriale ammetterà una base infinita oppure non ha una base? Per rispondere però dovremmo ampliare la definizione di combinazione lineare (e poi di indipendenza lineare) a insiemi infiniti. Ma in questo corso considereremo quasi esclusivamente spazi vettoriali che ammettono una base finita, e ad ogni modo, cercheremo base solo di spazi vettoriali che ne hanno una finita. ###### <span style="color: #64b5f6">Proposizione</span> Ogni vettore $v\in V$ si scrive IN MODO UNICO come combinazione lineare degli elementi della base. ###### Dimostrazione Il vettore $v$ si può scrivere come combinazione lineare degli elementi della base perché, per definizione, gli elementi della base generano $V$. L'unicità di una tale combinazione lineare è conseguenza della lineare indipendenza degli elementi della base. Infatti, supponiamo che si possa scrivere: $$ v=a_1v_1+a_2v_2+\ldots+a_nv_n=b_1v_1+b_2v_2+\ldots+b_nv_n $$ dove gli $a_i$ e i $b_j$ sono elementi del campo $\mathbb{K}$. Allora: $$ v−v=O= (a_1−b_1)v_1+ (a_2−b_2)v_2+\ldots+ (a_n−b_n)v_n $$ Ma sappiamo che i vettori $v_1,v_2,\ldots,v_n$ sono linearmente indipendenti. Dunque la combinazione lineare che abbiamo scritto sopra, e che ha come risultato $O$, deve avere tutti i coefficienti nulli. Questo implica che $a_i−b_i= 0$ per ogni $i$, ovvero che $a_i=b_i $per ogni $i$. Abbiamo dunque provato che esiste un solo modo di scrivere $v$ come combinazione lineare degli elementi della base data. ###### <span style="color: #e53935">Definizione</span> Ogni vettore $v\in V$ si scrive IN MODO UNICO come combinazione lineare degli elementi della base. ###### <span style="color: #ffc107">Osservazione</span> Una precisazione importante sul significato di IN MODO UNICO: si intende che per ottenere lo specifico vettore $v$, i coefficienti di ciascun vettore della base sono fissati, ma ovviamente (vale la proprietà commutativa) possiamo cambiare l'ordine degli addendi della combinazione lineare. ###### <span style="color: #0288d1">Teorema</span> Sia $V$ uno spazio vettoriale (sul campo $\mathbb{K}$) diverso da $\{O\}$ e generato dall'insieme finito di vettori non nulli $\{w_1,w_2,\ldots,w_s\}$. Allora è possibile estrarre da $\{w_1,w_2,\ldots,w_s\}$ un sottoinsieme $\{w_{i1},w_{i2},\ldots,w_{in}\}$ (con $n\le s$) che è una base di $V$. ###### Dimostrazione Consideriamo l'insieme: $$ \mathcal{M} = \{$A$ \subseteq \{w_1,w_2,\ldots,w_s\}|A \text{ è un insieme di vettori linearmente indipendenti}\} $$ e notiamo che $\mathcal{M}$ non è vuoto, in quanto contiene certamente i sottoinsiemi di $\{w_1,w_2,\ldots,w_s\}$ di cardinalità $1$, tipo $\{w_1\}$ o $\{w_2\}$. Fra tutti gli elementi di $\mathcal{M}$ consideriamone uno di cardinalità massima: $$ (sicuramente è $$ ossia tale insieme non è vuoto). Questo $W$ è proprio il nostro candidato ad essere una base di $V$. Osserviamo per prima cosa che $W$, per come lo abbiamo costruito, è un insieme di vettori linearmente indipendenti: resta da dimostrare che genera $V$. Per questo bisogna mostrare che con combinazioni lineari dei vettori di $W$ possiamo ottenere uno qualunque dei vettori $\{w_1,w_2,\ldots,w_s\}$ che sappiamo, per ipotesi, generare $V$. Se $\{w_{i1},w_{i2},\ldots,w_{in}\}=\{w_1,w_2,\ldots,w_s\}$ abbiamo già finito: i vettori di partenza costituiscono di già un insieme di vettori linearmente indipendenti, e dunque sono una base finita di $V$. Se invece $\{w_{i1},w_{i2},\ldots,w_{in}\}\subseteq\{w_1,w_2,\ldots,w_s\}$ allora prendiamo un vettore, diciamo $w_r$, che non appartiene a $\{w_{i1},w_{i2},\ldots,w_{in}\}$. Dobbiamo dimostrare che $w_r$ si può scrivere come combinazione lineare dei vettori $\{w_{i1},w_{i2},\ldots,w_{in}\}$. Se consideriamo l'insieme $\{w_r,w_{i1},w_{i2},\ldots, w_{in}\}$ notiamo che certamente questo non è un insieme di vettori linearmente indipendenti, altrimenti apparterrebbe a $\mathcal{M}$ e non sarebbe più vero che $\{w_{i1},w_{i2},\ldots,w_{in}\}$ ha cardinalità massima fra gli elementi di $\mathcal{M}$. Dunque esiste una combinazione lineare: $$ a_rw_r + a_{i1}w_{i1} + a_{i2}w_{i2} +\cdots+ a_{in}w_{in} = 0 $$ che è non banale, ossia i coefficienti non sono tutti zero. In particolare risulta che non può essere $$, altrimenti resterebbe una combinazione lineare non banale: $$ a_{i1}w_{i1}+a_{i2}w_{i2}+\cdots+a_{in}w_{in}= 0 $$ che contradirebbe la lineare indipendenza di $\{w_{i1},w_{i2},\ldots,w_{in}\}$. Visto dunque che $a_r \neq 0$, si può dividere tutto per $a_r$ ottenendo: $$ w_r=−{a_{i1}\over a_r}w_{i1}−{a_{i2}\over a_r}w_{i2}−\cdots−{a_{in}\over a_r}w_{in} $$ ###### <span style="color: #ffc107">Osservazione</span> Ogni sottoinsieme massimale di vettori linearmente indipendenti dell'insieme dei generatori di $V$ è una base di $V$; questo ci suggerisce che la base di uno spazio vettoriale non è unica. Osserviamo infatti che se uno spazio vettoriale $V$ ammette una base finita $v_1,\ldots,v_n$ allora anche $\lambda\cdot v_1,v_2,\ldots,v_n$ è una base di $V$, diversa dalla precedente, qualsiasi sia $\lambda \in \mathbb{K}\backslash\{0\}$. #### Dimensione ###### <span style="color: #e53935">Definizione</span> Sia $V$ uno spazio vettoriale con basi di cardinalità $n$. Tale cardinalità $n$ è detta la **dimensione** di $V$. #### Applicazioni lineari Per **applicazioni** si intendono quelle funzioni capaci di lavorare con le strutture vettoriali, quali spazi e sottospazi vettoriali. ###### <span style="color: #e53935">Definizione</span> Siano $V$ e $W$ spazi vettoriali di dimensione finita sul campo $\mathbb{K}$. Una applicazione $L$ da $V$ a $W$ è detta **lineare** se soddisfa le seguenti due proprietà: 1. $\forall v_1,v_2\in V \quad L(v_1+v_2) = L(v_1) +L(v_2)$ 2. $\forall \lambda \in \mathbb{K} \quad\forall v\in V \qquad L(\lambda v) =\lambda L(v)$ ###### <span style="color: #ffc107">Osservazione</span> È molto importante sottolineare come la definizione di applicazione lineare, vista la proprietà che mette in gioco lo scalare $\lambda$ di $\mathbb{K}$ sia a sinistra che a destra dell'uguaglianza, abbia senso per applicazioni tra spazi vettoriali $V$ e $W$ sullo STESSO campo $\mathbb{K}$. Il soddisfare le due proprietà della definizione, è equivalente a soddisfare la seguente proprietà: $$ \forall v_1,v_2\in V\quad \forall a,b\in \mathbb{K} \qquad L(av_1+bv_2) = aL(v_1) +bL(v_2) $$ ###### <span style="color: #e53935">Definizione</span> Dato uno spazio vettoriale $V$, si dice **applicazione lineare identità** quell'applicazione lineare che lascia fisso ogni elemento di $V$: $$ I:V\to V\\ I(v) = v \quad \forall \;v \in V​ $$ #### Nucleo e immagine di un'applicazione lineare ###### <span style="color: #e53935">Definizione</span> Nucleo Siano $V$ e $W$ spazi vettoriali sul campo $\mathbb{K}$ e consideriamo una applicazione lineare $L$ da $V$ a $W$. Chiameremo **nucleo** di $L$, e lo indicheremo con $Ker(L)$, l'insieme degli elementi del dominio $V$ che hanno come immagine mediante $L$ lo zero di $W$: $$ Ker(L)=\{v\in V\;|\;L(v)=O\} $$ Immagine Siano $V$ e $W$ spazi vettoriali sul campo $\mathbb{K}$ e consideriamo una applicazione lineare $L$ da $V$ a $W$. Definiamo **immagine** dell'applicazione lineare $L$, e la indichiamo con $Imm(L)$, il sottoinsieme del codominio che ha per elementi tutti e soli i vettori di $W$ che sono immagine, mediante $L$, degli elementi di $V$: $$ Imm(L):= \{w\in W \;|\; \exists\: v \in V \text{ per cui } L(v) = w\} $$ ###### <span style="color: #0288d1">Teorema</span> Proprietà di nucleo e immagine 1. $Ker(L)$ è un sottospazio vettoriale di $V$. 2. $Imm(L)$ è un sottospazio vettoriale di $W$. 3. $L$ è iniettiva se e solo se $Ker(L)=\{O\}$. #### Matrice ###### <span style="color: #ce93d8">Notazione</span> Dati due interi positivi $m,n$, una matrice $m\times n$ a coefficienti in $\mathbb{K}$ è una griglia composta da $m$ righe e $n$ colonne in cui in ogni posizione c'è un elemento di $\mathbb{K}$ (tali elementi vengono chiamati coefficienti della matrice): $$ \left( \begin{array}{ccccc} a_{11} & a_{12} & a_{13} & \ldots & a_{1n} \\ a_{21} & a_{22} & a_{23} & \ldots & a_{2n} \\ a_{31} & a_{32} & a_{33} & \ldots & a_{3n} \\ \ldots & \ldots & \ldots & \ldots & \ldots \\ \ldots & \ldots & \ldots & \ldots & \ldots \\ a_{m1} & a_{m2} & a_{m3} & \ldots & a_{mn} \end{array} \right) $$ L'elemento che si trova nella riga $i$-esima dall'alto e nella colonna $j$-esima da sinistra viene indicato con $a_{ij}$. ###### <span style="color: #ce93d8">Notazione</span> Spesso per indicare la matrice $A$ in useremo la notazione sintetica $A= (a_{ij})$ e talvolta, per ricordare quali sono le dimensioni della matrice, scriveremo: $$ A=(a_{ij})_{i= 1,2,\ldots, m\\j= 1,2, \ldots, n} $$ ###### <span style="color: #e53935">Definizione</span> Dati due interi positivi $m,n$, chiamiamo $Mat_{m\times n}(\mathbb{K})$ l'insieme di tutte le matrici $m\times n$ a coefficienti in $\mathbb{K}$. Date due matrici $A= (a_{ij})$ e $B= (b_{ij})$ in $Mat_{m\times n}(\mathbb{K})$ e dato uno scalare $k$ in $\mathbb{K}$, definiamo: - La **matrice somma** $A+B=C = (c_{ij}) $, il cui generico coefficiente nella $i$-esima riga e $j$-esima colonna è ottenuto sommando i coefficienti nella stessa posizione (cioè alla $i$-esima riga e $j$-esima colonna) di $A$ e di $B$. Ovvero per ogni $i\le m$ e per ogni $j\le n$ abbiamo che $c_{ij}=a_{ij}+b_{ij}$ - La **matrice moltiplicazione per scalare** $k\cdot A=D= (d_{ij})$, il cui generico coefficiente nella $i$-esima riga e $j$-esima colonna è ottenuto moltiplicandolo scalare $k$ per il coefficiente di $A$ nella $i$-esima riga e $j$-esima colonna. Ovvero per ogni $i\le m$ e per ogni $j\le n$ abbiamo che $d_{ij}=k\cdot a_{ij}$ Data una matrice $A= (a_{ij})$ di $Mat_{m\times n} (\mathbb{K})$ e una matrice $B= (b_{st})$ di $Mat_{n\times k}(\mathbb{K})$, il **prodotto riga per colonna** $AB$, è la matrice $C=(c_{rh})$ di $Mat_{m\times k}(\mathbb{K})$, i cui coefficienti, per ogni $r,h$, sono definiti come segue: $c_{rh}=a_{r1}b_{1h}+a_{r2}b_{2h}+a_{r3}b_{3h}+\cdots+a_{rn}b_{nh}$ Ovvero per ottenere l'elemento $c_{rh}$ dobbiamo moltiplicare progressivamente (ovvero il primo con il primo, il secondo con il secondo, e così via) gli elementi della $r$-esima riga di $A$, con gli elementi della $h$-esima riga di $B$ (da qui il nome prodotto riga per colonna) e sommare i risultati ottenuti. #### Matrice associata ###### <span style="color: #e53935">Definizione</span> Data una applicazione lineare $L$ da uno spazio vettoriale $V$ di dimensione $n$ ad uno spazio vettoriale $W$ di dimensione $m$, si dice **matrice associata all'applicazione lineare** $L$ nelle basi $\{e_1,e_2,\ldots,e_n\}$ di $V$ e $\{\epsilon_1,\epsilon_2,\ldots,\epsilon_m\}$ di $W$ la seguente matrice di $m$ righe per $n$ colonne: $$ [L]_{e_1,e_2,\ldots,e_n\\ \epsilon_1,\epsilon_2,\ldots,\epsilon_m} = \left( \begin{array}{ccccc} a_{11} & a_{12} & a_{13} & \ldots & a_{1n} \\ a_{21} & a_{22} & a_{23} & \ldots & a_{2n} \\ a_{31} & a_{32} & a_{33} & \ldots & a_{3n} \\ \ldots & \ldots & \ldots & \ldots & \ldots \\ \ldots & \ldots & \ldots & \ldots & \ldots \\ a_{m1} & a_{m2} & a_{m3} & \ldots & a_{mn} \end{array} \right) $$ ###### <span style="color: #ce93d8">Notazione</span> Da ora in poi, per semplificare la notazione, ometteremo il riferimento alle basi tutte le volte che potremo farlo senza creare ambiguità, ma notiamo che la matrice $[L]$ associata all'applicazione $L$, non dipende solo da $L$ stessa, ma anche dalle basi scelte per $V$ e $W$, e che si ottiene ponendo uno accanto all'altro i vettori dei coefficienti di $L(e_1),L(e_2),\ldots,L(e_n)$ nella base scelta di $W$, scritti in colonna. Talvolta specificheremo la base di partenza $B$ e quella di arrivo $C$ con $[L]_{B\\ C}$ ###### <span style="color: #ffc107">Osservazione</span> Dati due spazi vettoriali $V,W$, esiste una sola applicazione lineare da $V$ a $W$ la cui matrice associata è indipendente dalle basi scelte. Si tratta della applicazione nulla $O:V\to W$ che manda ogni $v\in V$ in $O\in W$. Qualunque siano le basi scelte, la matrice associata a tale applicazione avrà tutti i coefficienti uguali a $0$. Consideriamo l'applicazione identità $I:V\to V$, che lascia fisso ogni elemento di $v$: $I(v) =v\quad \forall v\in V$, e fissiamo la base $B$ di $V$. Si verifica che la matrice $[I] = (a_{ij})$ associata ad $I$ rispetto a $B$ sia in arrivo che in partenza (ovvero $[I]_{B\\B}= (a_{ij})$), è la matrice quadrata di formato $n\times n$ che ha tutti i coefficienti uguali a $0$ eccetto quelli sulla diagonale, che sono invece uguali a $1$: $a_{ij}= 0$ se $i\neq j$ e $a{ii}= 1$ per ogni $i= 1,2,\ldots,n$. Tale matrice è l'elemento neutro rispetto alla moltiplicazione riga per colonna in $Mat_{n\times n}(\mathbb{K})$. ###### <span style="color: #ce93d8">Notazione</span> Nel seguito useremo il simbolo $I$ per indicare sia la applicazione lineare $I$ sia la matrice identità, anche senza specificare di che formato sia ($2\times 2,3\times 3,n\times n\ldots$), visto che il contesto renderà sempre chiaro il significato.