# Álgebra Linear - O que é?
É uma área da matemática que tem como objectivo o estudo das relações entre multiplas equações lineares. Mais especificamente, a resolução de sistemas de equações lineares.
# Álgebra Linear - Para que Serve?
Como uma enorme variedade de situações podem ser expressas em equações lineares, existe a necessidade de resolver multiplas expressões. Essas multiplas expressões são resolvidas em matrizes.
A situação mais óbvia serão problemas de optimização.
Adicionalmente, existem propriedades de matrizes que podem ser úteis ao revelar mais informação sobre um problema de mundo real.
De uma forma mais abstracta, uma equação será um comportamento de algo. Para este comportamento ser linear, este terá de ser escalado por multiplicação.
Assim este será extremamente previsível e simples. O foco será então em dar significado e contexto a esse comportamento ou movimento. E usufruir das propriedades de matrizes e de Álgebra Linear para descobrir mais sobre seja qual for o objecto ou coisa que possui esse comportamento.
## Capitulo 1 - Introdução
### Método de Substituição VS Matrizes (Eliminação de Gauss)

Vamos supor então que temos as equações `y=2x` e `x=2y-3`
Ambas são lineares, e isso torna-as previsíveis e simples.
O objectivo será então encontrar a intersecção entre estes dois comportamentos previsíveis (sejam eles quais forem)
Segundo a prespectiva fornecida no ensino regular secundário. Podemos resolver tudo via substituição.
Eq1: `y=2x`
Eq2: `x=2(2x)-3`
Eq1: `y=2x`
Eq2: `x=4x-3`
Eq1: `y=2x`
Eq2: `x=1`
Eq1: `y=2`
Eq2: `x=1`
Portanto, a solução será `P(1,2)`
Usando matrizes a resolução dará o mesmo resultado mas de uma forma diferente
**Resolução**
Primeiramente temos de colocar as equações no formato `ax+by=c` e de seguida colocar os coeficientes a b c na matriz
\begin{pmatrix}
1 & -2 & -3
\\
2 & -1 & 0
\end{pmatrix}
(=)
No canto superior direito temos o primeiro pivô (Coordenadas 1,1) portanto o objectivo é o de eliminar (tornar zero) todos os elementos na coluna de cada pivô. O importante a reter não é a execução mas sim ficar com uma ideia geral deste método de resolução de matrizes (eliminação de gauss).
\begin{pmatrix}
1 & -2 & -3
\\
0 & 3 & 6
\end{pmatrix}
Agora calculamos o segundo pivô (Coordenadas 2,2)
Linha2 * 1/3
\begin{pmatrix}
1 & -2 & -3
\\
0 & 1 & 2
\end{pmatrix}
Agora usamos o segundo pivô para eliminar todos os elementos da mesma coluna.
\begin{pmatrix}
1 & 0 & 1
\\
0 & 1 & 2
\end{pmatrix}
Depois disto voltamos a converter os coeficientes para o formato original das equações(ax+by = c).
`(1 0 1)` = **1**x + **0**y = 1
`(0 1 2)` = **0**x + **1**y = 2
Portanto temos exactamente a mesma solução. As matrizes são simplesmente um ângulo diferente de atacar o mesmo problema.
Obviamente que por agora existem imensas questões. Contudo o papel do capítulo introdutório é só este.
Cabe então ao utilizador de desbloquear o seu potêncial.
Matrizes ajudam a resolver estes problemas mais rapidamente (portanto a escalabilidade é aumentada) e oferecem-nos um conjunto de propriedades e utilidades extras que somos livres de aplicar para perceber mais profundamente os comportamentos de decidimos analisar.
Portanto a mensagem não é tanto "Tenho de usar matrizes" como "Quero usar matrizes para compreender melhor a coisa que escolhi estudar".
Futuramente serão então apresentadas as diversas particularidades das matrizes e os seus usos.
## Capitulo 2 - Matrizes e propriedades
Por esta altura já vimos uma resolução o menos detalhada possível de uma matriz composta por duas equações lineares.
Portanto existem várias questões. Foram mencionados Pivôs e eliminações. O pânico já assentou.
Como já tinha referido antes, uma matriz é uma maneira diferente e organizada de olhar para sistemas de condições lineares.
-O método usado foi o da **Eliminação de Gauss**.
-Se é um bicho de sete cabeças? Não, é uma metodologia como outras que existem (Se bem que é usualmente ensinada inicialmente).
Sabendo a teoria por detrás de cada passo a coisa fica fácil.
Isto é de longe o mais importante, porque para além de uns truques matemáticos aqui e ali, a execução é ridiculamente simples.
### Multiplicação de Matriz por Vector
Se por alguma razão surgir a necessidade de multiplicar um vector por uma matriz. O processo é extremamente fácil.
Se tivermos uma matriz de tamanho MxN (Sendo M as linhas e N as colunas).
O resultado será um vector em M dimensões.
Temos então uma matriz 2x3
\begin{pmatrix}
1 & 2
\\
3 & 4
\\
5 & 6
\end{pmatrix}
E um vector
\begin{pmatrix}
7
\\
8
\end{pmatrix}
O procedimento será (multiplicar cada linha do vector por cada coluna da matriz)
\begin{pmatrix}
1*7& 2*8
\\
3*7 & 4*8
\\
5*7 & 6*8
\end{pmatrix}
### Multiplicação de Matriz por produto de Vector e constante
Primeiro multiplica-se o vector **v** pela constante **c**.
\begin{pmatrix}
c*v1
\\
c*v2
\\
c*v3
\end{pmatrix}
Em seguida faz-se o produto matriz vector
O elemento c vai aparecer em todas as celulas da matriz.
Podemos então colocar o c em evidência e podemos concluir que multiplicar uma matriz por o produto de um vector e uma constante é igual ao produto de uma constante com uma matriz a multiplicar por um vector.
M(c*v) = cM(v)
E finalmente, o elefante na sala. Isto acontece porque são multiplicações.
M(c*v) = (c*M)*v
### Multiplicação de Matriz por soma de vectores
Dada uma matriz M e dois vectores v e w
\begin{align*}
M=
\begin{pmatrix}
m1.1 & m1.2 & m1.3
\\
m2.1 & m2.2 & m2.3
\end{pmatrix}
\end{align*}
\begin{align*}
v=
\begin{pmatrix}
v1
\\
v2
\\
v3
\end{pmatrix}
\end{align*}
\begin{align*}
w=
\begin{pmatrix}
w1
\\
w2
\\
w3
\end{pmatrix}
\end{align*}
Vamos então considerar a operação
M(v+w)
Vamos então executar uma multiplicação completamente normal
\begin{align*}
M(v+w)=
\begin{pmatrix}
m1.1*v1 + m1.1*w1 & m1.2*v2 + m1.2*w2 & m1.3*v3 + m1.3*w3
\\
m2.1*v1 + m2.1*w1 & m2.2*v2 + m2.2*w2 & m2.3*v3 + m2.3*w3
\end{pmatrix}
\end{align*}
Podemos então reparar nos elementos comuns m1*v + m1*w e concluir que esta operação é exactamente o mesmo que
M*v + M*w
### Produto interno de dois vectores
Dado dois vectores v e w
\begin{align*}
v=
\begin{pmatrix}
v1
\\
v2
\\
v3
\end{pmatrix}
\end{align*}
\begin{align*}
w=
\begin{pmatrix}
w1
\\
w2
\\
w3
\end{pmatrix}
\end{align*}
O produto interno dos mesmos dá-se por
v*w = (v1+w1) * (v2+w2) * (v3+w3)
Esta operação é exactamente a mesma que
vT * w ou v * wT
vT (vector v transposto)
### Condições lineares para Vectores
Dada uma equação
\begin{equation}
3x + 3x^2 + 6x^3= 9
\end{equation}
Podemos converte-la para o seguinte
\begin{align*}
\begin{pmatrix}
3 & 3 & 6
\end{pmatrix}
\begin{pmatrix}
x \\
x^2 \\
x^3
\end{pmatrix}
&= \begin{pmatrix}
9 \\
\end{pmatrix} \\
\end{align*}
### Produto de Matrizes
Este processo consiste na multiplicação dos elementos da linha de uma matriz pelos elementos da coluna de outra matriz.
Ou seja
\begin{align*}
M=
\begin{pmatrix}
m1.1 & m1.2
\\
m2.1 & m2.2
\end{pmatrix}
\end{align*}
\begin{align*}
A=
\begin{pmatrix}
A1.1 & A1.2
\\
A2.1 & A2.2
\end{pmatrix}
\end{align*}
\begin{align*}
M*A=
\begin{pmatrix}
m1.1*A1.1 + m1.2*A2.1 & m1.1*A1.2 + m1.2*A2.2
\\
m2.1*A1.1 + m2.2*A2.1 & m2.1*A1.2 + m2.2*A2.2
\end{pmatrix}
\end{align*}
### Matriz de Identidade
É uma matriz em que os elementos da diagonal principal são todos iguais a 1 e os restantes iguais a 0.
Esta matriz tem a particularidade de ser um elemento neutro na multiplicação de matrizes. Isto é, podemos multiplicar esta matriz por outra qualquer sem a alterarmos.
Para obter uma matriz de identidade podemos multiplicar uma dada matriz pela respectiva inversa.
Finalmente, a matriz inversa (ou transposta) da própria matriz de identidade é ela mesma.
### Matriz Inversa
É uma matriz que multiplicada pela original vai gerar a matriz de identidade.
Por exemplo
Dada uma matriz M
\begin{align*}
M=
\begin{pmatrix}
m1.1 & m1.2 & m1.3
\\
m2.1 & m2.2 & m2.3
\\
m3.1 & m3.2 & m3.3
\end{pmatrix}
\end{align*}
\begin{align*}
M^{-1}=
\begin{pmatrix}
a & b & c
\\
d & e & f
\\
g & h & i
\end{pmatrix}
\end{align*}
Sabemos que
\begin{align*}
$M*M^{-1} = I$
\end{align*}
Portanto para calcular a matriz inversa
\begin{align*}
\begin{pmatrix}
m1.1*a + m1.2*d + m1.3*g = 1 & m1.1*b + m1.2*e + m1.3*h = 0 & m1.1*c + m1.2*f + m1.3*i = 0
\\
m2.1*a +m2.2*d + m2.3*g = 0 & m2.1*b +m2.2*e + m2.3*h = 1 & m2.1*c +m2.2*f + m2.3*i = 0
\\
m3.1*a + m3.2*d + m3.3*g = 0 & m3.1*b + m3.2*e + m3.3*h = 0 & m3.1*c + m3.2*f + m3.3*i= 1
\end{pmatrix}*
\begin{pmatrix}
a & b & c
\\
d & e & f
\\
g & h & i
\end{pmatrix}=
\begin{pmatrix}
1 & 0 & 0
\\
0 & 1 & 0
\\
0 & 0 & 1
\end{pmatrix}
\end{align*}
## Capitulo 3 - Eliminação de Gauss
Este é o primeiro método de resolução de matrizes a ser ensinado.
#### Eliminação de Gauss - O que é?
#### Eliminação de Gauss - Para que Serve?
#### Eliminação de Gauss - Conceitos Chave
Primeiramente, existem **3** operações que podemos fazer à matriz.
1. Temos liberdade total de trocar a ordem das linhas da matriz
2. Podemos multiplicar qualquer linha da matriz por uma constante diferente de 0.
3. Podemos somar o múltiplo de qualquer linha a uma outra linha (este método é usado para eliminar coeficientes abaixo ou acima de pivôs)
* **Pivô** - Trata-se de um elemento de uma linha de uma matriz. O objectivo é executar uma ou mais operações (das listadas acima) para eliminar elementos acima e abaixo do pivô.
* Se uma fila da matriz ficar toda eliminada (excepto o termo independente) então o sistema não tem solução.
* Se o número de linhas não eliminadas (compostas só por zeros) for menor que o número de variáveis (representadas por coeficientes na matriz) então o sistema é dependente e existem várias soluções. Nessa situação a resposta tem de ser em forma paramétrica.
* Quando só existe um coeficiente diferente de 0 por linha (ou seja, um pivô por linha e os elementos restantes estão eliminados) então a matriz ficou resolvida.
#### Eliminação de Gauss - Truques
1. Antes de começar a aplicar a eliminação de gauss, trocar linhas de sítio para pelo menos o primeiro pivô ficar a 1 (caso exista alguma linha com a primeira coluna com o coeficiente 1).
2. Usar o método de pivôs na diagonal principal sempre que possível, trabalhando do canto superior esquerdo para o canto inferior direito (não é obrigatório mas dá jeito na maioria dos casos).
3. Para escolher um pivô, procurar a coluna com o maior número de zeros é optimal (porque trabalhar menos é bom).
#### Eliminação de Gauss - Análise de resultados
##### Sistema possível
Dado uma matriz resolvida
\begin{pmatrix}
1 & 0 & 0 & 5
\\
0 & 1 & 0 & 3
\\
0 & 0 & 1 & 1
\end{pmatrix}
Podemos concluir que x=5 ; y=3 ; z=1
Isto acontece porque os coeficientes são 1 e os termos independentes fazem sentido.
##### Sistema impossível
Dado uma matriz resolvida
\begin{pmatrix}
1 & 0 & 0 & 5
\\
0 & 0 & 0 & 3
\\
0 & 0 & 1 & 1
\end{pmatrix}
Interpretando o sistema
Podemos concluir que x=5 ; **0=3** ; z=1
Isto torna-o impossível.
##### Sistema indeterminado
Dado uma matriz resolvida
\begin{pmatrix}
1 & 0 & 0 & 0 & 5
\\
0 & 0 & 1 & 0 & 3
\\
0 & 0 & 0 & 1 & 1
\\
0 & 0 & 0 & 0 & 0
\end{pmatrix}
Interpretanto os resultados da matriz
x1 = 5 ; x2 = ?? ; x3 = 3 ; x4 = 1 ; 0=0
Neste caso o resultado é indeterminado. O número de variáveis soltas dá-nos o grau de indeterminação (neste caso é 1).
Concluindo, o sistema é possível e indeterminado.
#### Regra de Cramer
??????????
#### Eliminação de Gauss - Exemplos
##### Exercicio 1
Calcular a solução para este sistema
`2x-y=10-3z`
`-1+x-3y+5z=0`
`2y+z-12=-x`
1. Transformação de todas as equações para o formato correcto (ax+by+cz=d)
`2x-y=10-3z`
`-1+x-3y+5z=0` (=)
`2y+z-12=-x`
`2x-y+3z=10`
`x-3y+5z=1`
`x+2y+z=12`
2. Troca da ordem das linhas para o primeiro pivô ficar feito
`2x-y+3z=10`
`x-3y+5z=1` (=)
`x+2y+z=12`
`x+2y+z=12`
`x-3y+5z=1`
`2x-y+3z=10`
3. Transferir o sistema para uma matriz
`x+2y+z=12`
`x-3y+5z=1` (=)
`2x-y+3z=10`
\begin{pmatrix}
1 & 2 & 1 & 12
\\
1 & -3 & 5 & 1
\\
2 & -1 & 3 & 10
\end{pmatrix}
4. Escolha do primeiro pivô (Que está na diagonal principal)
\begin{pmatrix}
*1* & 2 & 1 & 12
\\
1 & -3 & 5 & 1
\\
2 & -1 & 3 & 10
\end{pmatrix}
5. Eliminação dos elementos abaixo do primeiro pivô
Linha 1 x (-1) + Linha 2 = 0
Linha 1 x (-2) + Linha 3 = 0
\begin{pmatrix}
1 & 2 & 1 & 12
\\
0 & -5 & 4 & -11
\\
0 & -5 & 1 & -14
\end{pmatrix}
6. Cálculo do segundo pivô
\begin{pmatrix}
1 & 2 & 1 & 12
\\
0 & *-5* & 4 & -11
\\
0 & -5 & 1 & -14
\end{pmatrix}
Linha 2 * (-1/5)
\begin{pmatrix}
1 & 2 & 1 & 12
\\
0 & 1 & (-4/5) & (11/5)
\\
0 & -5 & 1 & -14
\end{pmatrix}
7. Eliminação dos elementos abaixo e acima do segundo pivô
Linha 2 x (-2) + Linha 1 = 0
Linha 2 x (5) + Linha 3 = 0
\begin{pmatrix}
1 & 0 & (13/5) & (38/5)
\\
0 & 1 & (-4/5) & (11/5)
\\
0 & 0 & -3 & -3
\end{pmatrix}
8. Cálculo do terceiro pivô
Linha 3 * (-1/3)
\begin{pmatrix}
1 & 0 & (13/5) & (38/5)
\\
0 & 1 & (-4/5) & (11/5)
\\
0 & 0 & *1* & 1
\end{pmatrix}
9. Eliminação dos elementos acima do terceiro pivô
Linha 3 x (-13/5) + Linha 1 = 0
Linha 3 x (4/5) + Linha 2 = 0
\begin{pmatrix}
1 & 0 & 0 & 5
\\
0 & 1 & 0 & 3
\\
0 & 0 & 1 & 1
\end{pmatrix}
10. Análise dos resultados
\begin{pmatrix}
1 & 0 & 0 & 5
\\
0 & 1 & 0 & 3
\\
0 & 0 & 1 & 1
\end{pmatrix}
(=)
Passagem das linhas da matriz para o formato ax+by+cz = d
**1**x + **0**y + **0**z = **5**
**0**x + **1**y + **0**z = **3**
**0**x + **0**y + **1**z = **1**
Portanto o ponto onde ocorre a intersecção das 3 condições lineares é o P(5,3,1).
## Capitulo 4 - Matrizes e Vectores
Este capitulo foca-se em mostrar várias aplicações de matrizes que acabam sempre por precisar das operações e propriedades elementares mostradas anteriormente. Adicionalmente, este capitulo dá uma prespectiva diferente de como ver matrizes. Estas podem ser divididas em matrizes mais pequenas ou podem ser vistas como conjuntos de vectores que formam um espaço. Esse espaço tem então significado.
### Combinações lineares
Combinações lineares são essencialmente soma de vectores com o fim de igualar a um outro vector.
Dado um conjunto de vectores quaisquer:
\begin{align*}
\vec{v}=
\vec{v_1}; \vec{v_2}; ...\vec{v_p};
\end{align*}
Vamos assumir que um vector y é a combinação linear dessa lista de vectores.
Esta combinação dá-se por:
\begin{align*}
y= c_1*\vec{v_1}+ c_2*\vec{v_2}+ ...+c_p*\vec{v_p}
\end{align*}
Em que c é o peso de cada vector (este peso é dado por uma constante)
### Expansão linear
\begin{align*}
\vec{v}=
\vec{v_1}; \vec{v_2}; ...\vec{v_p};
\end{align*}
Assumindo que são Vectores em $\mathbb{R}^n$
**A expansão linear consiste em todas as combinações lineares destes vectores**.
A notação é a seguinte: $span(\vec{v_1}; \vec{v_2}; ...\vec{v_p})$
Exemplo 1
Vamos então considerar a expansão linear do tal vector $span(\vec{v})$
Só existem duas opções.
1. Este vector é o igual ao vector nulo, nesse caso a solução é o vector nulo por si só.
2. O vector não é nulo, portanto a expansão linear pode ser interpretada como uma recta com a direcção e o sentido de $\vec{v}$ e que passa no vector nulo (esta expansão é basicamente a multiplicação do vector por constantes inteiras negativas ou positivas)
Adicionalmente caso fosse pedido para considerar a expansão linear de dois vectores.
\begin{align*}
span(\vec{v};\vec{u})
\end{align*}
Existem duas opções.
1. Estes vectores são colineares, ou seja, são multiplos um do outro. Nesse caso a solução é uma recta (contendo o vector nulo).
2. Estes vectores não são colineares, ou seja, a solução são duas rectas formando um plano(contendo o vector nulo).
### Espaço Gerado
Trata-se de um espaço gerado por combinações lineares de vectores.
Vamos então considerar a condição
Ax=b
Em que A é uma matriz e b é um vector qualquer.
\begin{align*}
A=
\begin{pmatrix}
1 & 0 & 0
\\
1 & 1 & 0
\\
0 & 1 & 1
\end{pmatrix}
\end{align*}
\begin{align*}
b=
\begin{pmatrix}
b_1
\\
b_2
\\
b_3
\end{pmatrix}
\end{align*}
\begin{align*}
\begin{pmatrix}
1 & 0 & 0 & b_1
\\
1 & 1 & 0 & b_2
\\
0 & 1 & 1 & b_3
\end{pmatrix}
\end{align*}
Usando a eliminação de Gauss vamos chegar ao seguinte resultado final (passando a reoslução à frente porque o que interessa é a interpretação)
\begin{align*}
\begin{pmatrix}
1 & 0 & 0 & b_1
\\
0 & 1 & 0 & b_2 - b_1
\\
0 & 0 & 1 & b_3 - b_2 + b_1
\end{pmatrix}
\end{align*}
De acordo com o que aprendemos, este sistema é possível e determinado.
Então podemos concluir que o vector b é uma combinação linear das colunas de A (ou seja dos vectores que formam a matriz).
Portanto b pode ser dado pela seguinte formula:
\begin{align*}
b = c_1*\vec{a_1}+ c_2*\vec{a_2}+c_3*\vec{a_3}
\end{align*}
### Independência Linear
Na teoria de espaço vectorial, um conjunto de vectores é linearmente dependente se pelo menos um dos vectores poder ser atingido/definido via uma combinação linear de algum dos outros vectores do conjunto.
Caso isto não seja possível, então este conjunto é independente.
Dado um vector v qualquer
\begin{align*}
\vec{v}=
\vec{v_1}; \vec{v_2}; ...\vec{v_p};
\end{align*}
Quando a equação vectorial
$$c_1*\vec{v_1}+c_2*\vec{v_2}+...+c_p*\vec{v_p} = \vec{0} $$
O conjunto é independente.
Caso contrário, o conjunto é linearmente dependente.
### Determinante de uma Matriz
Vamos então imaginar o espaço gerado pela Matriz
\begin{pmatrix}
a & b
\\
c & d
\end{pmatrix}

O determinante dessa matriz é o factor pelo qual o espaço gerado é distorcido.
No caso do determinante de uma transformação linear estamos a falar do factor pelo qual todas as áreas são mudadas.

A formula é dada pela expressão
\begin{align}
det\begin{pmatrix}
a & b
\\
c & d
\end{pmatrix}
=ad-bc
\end{align}
Finalmente, o determinante pode ser negativo. Apesar de parecer assustador e estranho - "Como é que espaço é distorcido negativamente?"
Um determinante negativo é essencialmente igual a um positivo, com a particularidade de inverter as posições dos vectores. Imaginando que um vector $\vec{i}$ estava à direita de um vector $\vec{j}$ - Um determinante negativo implicaria que o vector $\vec{i}$ ficaria à esquerda de um vector $\vec{j}$.
Determinante Positivo | Determinante Negativo
:-------------------------:|:-------------------------:
! | 
Até agora tudo foi explicado em $\mathbb{R}^2$. Caso seja em $\mathbb{R}^3$, o determinante continua a distorcer o espaço mas é o factor pelo qual o volume de um espaço é alterado.
---
## Capitulo 5- Transformações
### O que são?
Basicamente é o processo de transformação de um vector ou matriz noutro vector ou matriz.
No caso dos vectores - $T(\vec{x})=\vec{v}$ - Lê-se transformação do vector x no vector v.
No caso de matrizes - $A(\vec{x})=\vec{b}$ - Lê-se transformação de uma matriz no vector b $\vec{b}$
### Definição
Vamos então imaginar uma qualquer transformação $T$
$T$ é uma transformação linear quando $T(\vec{u}+\vec{v}) = T(\vec{u}) + T(\vec{v})$
ou quando
$T(c\vec{u}) = cT(\vec{u})$ para todos os vectores $\vec{u}$ no domínio $T$ e todos os escalares (c é uma constante qualquer que se designa de escalar)
### Cálculos
Imaginando então que temos uma matriz A tal que
$A(\vec{x})=\vec{b}$
A maneira de calcular esta transformação é a seguinte
1. Sabemos que a multiplicação de uma matriz pela de identidade resulta numa transformação nula (ou seja nada acontece).
2. Sabemos que se multiplicarmos a tal matriz $A.A^{-1}$ vamos obter a matriz de identidade.
Logo
$A^{-1}.A(\vec{x})=A^{-1}.\vec{b}$ (=)
$I.\vec{x}=A^{-1}.\vec{b}$ (=)
$\vec{x}=A^{-1}.\vec{b}$
### Produto escalar de vectores
A formula do produto escalar de vectores é dada pela seguinte fórmula:
Vamos então considerar dois vectores $\vec{v}$ e $\vec{w}$
\begin{align}
(\vec{v}) =
\begin{pmatrix}
4
\\
1
\end{pmatrix}
\end{align}
\begin{align}
(\vec{w}) =
\begin{pmatrix}
2
\\
-1
\end{pmatrix}
\end{align}
O produto escalar destes dois vectores dá-se por
\begin{align}
\begin{pmatrix}
4
\\
1
\end{pmatrix}
.
\begin{pmatrix}
2
\\
-1
\end{pmatrix}
= 4*2+2*(-1) = 6
\end{align}
No entanto, o que interessa é a interpretação geométrica do que acontece e isso está mostrado na seguinte imagem:

Basicamente, O vector $\vec{w}$ é alinhado com a origem e com o vector $\vec{v}$ (ou seja, é projectado). O produto do comprimento de $\vec{v}$ com o comprimento de $\vec{w}$ projectado vai nos dar o produto escalar desses vectores.
Portanto vamos às propriedades interessantes desta noção.
Se o produto escalar desses vectores for > 0 então os vectores apontam na mesma direcção geral
Se o produto escalar desses vectores for < 0 então os vectores apontam na direcção oposta (geral)
Se o produto escalar desses vectores for = 0 então os vectores são perpendiculares