# Formulario CPS
## Probabilità
- ### Probabilità condizionata
$$
P(A|B)=\frac{P(A\cap B)}{P(B)}
$$
- ### Formula condizionamento ripetuto
$$
P(A_1\cap A_2\cap A_3\cap A_4) = P(A_1)P(A_2|A_1)P(A_3|A_2\cap A_1) P(A_4|A_1\cap A_2\cap A_3)
$$
- ### Formula di fattorizzazione
$$
P(A) = P(A | B_1) P(B_1) + P(A|B_2)P(B_2)
$$
- ### Probabilità delle cause
$$
P(B_1 | A) = \frac{P(A | B_1)P(B_1)}{P(A)}
$$
- ### Probabilità delle cause con fattorizzazione
$$
P(B_1 | A) = \frac{P(A | B_1)P(B_1)}{P(A | B_1) P(B_1) + P(A|B_2)P(B_2)}
$$
- ### Indipendenza
$$
P(A|B) = P(A) \\
P(B|A) = P(B) \\
P(A\cap B) = P(A) P(B)
$$
- ### Eventi incompatibili
Due eventi si dicono incompatibili se al verificarsi di uno non si può verificare l'altro
$$
A\cap B = \emptyset
$$
Se si verifica A allora non si verifica B e viceversa
## Variabili aleatorie discrete e con densità
- ### Discreta
Dato un insieme finito o numerabile di punti $x_1, x_2, x_3, \ldots$ si ha che:
$$
p(x_i) = P(\{x_i\}) \\
p(x_i) \ge 0 \\
p(x_1) + p(x_2) + \ldots = 1 \\
P(A) = \sum_{x_i\in A}p(x_i) \quad A\text{ è un evento}
$$
- #### Funzione di massa o densità discreta
$$
p(x) = \begin{cases} p(x_i) \quad se\:\: x=x_i \\ 0\quad se \:\: x_i\; \text{non è uno dei punti} \; x_1,x_2,\ldots\end{cases}
$$
- ### Con densità
- #### Densità
$$
f(x) \ge 0 \\
\int_{-\infty}^{+\infty}f(x) x = 1
$$
Definita solo su insiemi misurabili
- ### Funzione di ripartizione (c.d.f.)
$$
F_X : \mathbb{R} \rightarrow [0,1]\\
F_X(x) = P(X\le x)
$$
- #### Proprietà
- Crescrente
$$
x<y \Rightarrow F(x)<F(y)
$$
- Limiti all'infinito
$$
\lim_{x\rightarrow -\infty} F(x) = 0 \\
\lim_{x\rightarrow +\infty} F(x) = 1 \\
$$
- $F$ è continua a destra
$$
y>=x\\
\lim F(y) = F(x)
$$
- #### Discrete
$$
F_X(x) = P(X\le x) = \sum_{x_i\le x}p(x_i)
$$
- #### Con densità
Se $X$ è con densità allora $F_X(x)$ è continua
$$
F_X(x) = P(X\le x) = \int_{-\infty}^{x} f(t) dt
$$
- #### Calcolo su $h(X)$ formula per trovare la densità
Data $X$ con densità deversa da $0$ su un intervallo $A$ e $h:A\rightarrow B$
Se $h$ è **biunivoca derivabile e con inversa derivabile** allora
$$
Y=h(X) \quad \text{ha densità:}\\
f_Y(y) = \begin{cases} f_X(h^{-1}(y))\cdot |{dh^-1(y)\over dy}| \quad y \in B \\
0 \quad y \not\in B \\
\end{cases}
$$
Se invece abbiamo che non valgono le proprietà di $h$ allora si procede cercando la funzione di ripartizione di $Y$ e derivandola.
$$
F_Y(y) = P\{Y\le y\} = P\{h(X) \le y\}
$$
L'idea è quella di riscrivere la $P\{h(X) \le y\}$ come per avere solo $X$ es. $P\{X^2 \le y\} = P\{-\sqrt{y} \le X \le \sqrt{y}\}$ e a questo punto si applica la funzione di ripartizione di $X$ di base. Il risultato sarà la funzionedi ripartizione di $Y$ e possiamo quindi derivare per ottenere la densità.
## Quantile
è un numero $r$ tale che
$$
P(X\le r) \ge \beta \\
P(X\ge r) \ge -\beta\\
$$
lo si trova con la funzione di ripartizione
$$
P(X\le r_\beta) = F(r_\beta) = \beta
$$
## Variabili aleatorie doppie
- ### Densità
$$
P_{X, Y}(A) = P\{(X, Y(\in A\}
$$
- ### Con densità
$$
P_{X, Y}(A) = P\{(X, Y(\in A\}
$$
## Formule generali
- ### Convoluzione discreta
Date due variabili aleatorie $X$ e $Y$ **indipendenti** possiamo stabilire quanto vale $Z = (X+Y)$ mediante la formula
$$
p_z(m) = \sum_{h=0}^{m}p_x(h)p_y(m-h)
$$
Nota
se ho due variabili di Poisson indipendenti di parametri $\lambda$ e $\mu$ la somma è la variabile di Poisson di parametro $\lambda+\mu$
se ho due variabili binomiali indipendenti di parametri $(n, p)$ e $(m, p)$ la somma è la variabile binomiale di parametri $(n+m,\ p)$
se ho due variabili gaussiane indipendenti di parametri $(m_1, \sigma_1)$ e $(m_2, \sigma_2)$ la somma è la variabile gaussiana di parametri $(m_1+m_2,\ \sigma_1+\sigma_2)$
- ### Convoluzione con densità
Date due variabili aleatorie $X$ e $Y$ **indipendenti** possiamo stabilire quanto vale $Z = (X+Y)$ mediante la formula
$$
f_z(z) = \int_{-\infty}^{+\infty}f_x(x)f_y(z-x)\; dx
$$
ma anche
$$
f_z(z) = \int_{-\infty}^{+\infty}f_y(y)f_x(z-y)\; dy
$$
- ### Valore atteso
- #### Se $X$ e $Y$ sono **indipendenti** vale
$$
E[XY] = E[X]E[Y]
$$
- #### Generica $X$ discreta
$$
E[X] = \sum_i x_i\;p(x_i)
$$
- #### Generica $X$ discreta e $Y=g(X)$
$$
E[g(X)] = \sum_i g(x_i)\;p(x_i)
$$
- #### Generica $X$ con densità
$$
E[X] = \int_{-\infty}^{+\infty}xf(x)\; dx
$$
- #### Generica $X$ con densità e $Y=g(X)$
$$
E[g(X)] = \int_{-\infty}^{+\infty}g(x)f(x)\; dx
$$
- #### $X$ binomiale $B(n,p)$
$$
E[X]=\sum_{h=0}^n h {n \choose h} p^h(1-p)^{n-h}=np
$$
- #### $X$ geometrica da parametro $p$
$$
E[X]=\sum_{h=0}^\infty h(1-p)^{h-1}p
$$
- #### $X$ esponenziale da parametro $\lambda$
$$
E[X]=\int_0^\infty x \lambda e ^{-\lambda x}\; dx
$$
- ### Varianza e covarianza
- #### Varianza
$$
Var(X) = E[X^2]-E[X]^2
$$
Nelle variabili gaussiane abbiamo che $Var(X)=\sigma^2$
Nota
Se $X$ è costante allora vale $0$
- ##### Binomiale
$$
Var(X) = np(1-p)
$$
- ### Covarianza
$$
Cov(X, Y) = E[XY]-E[X]\;E[Y]
$$
Nelle variabili gaussiane abbiamo che $Var(X)=\sigma^2$
Nota
Se $X$ e $Y$ sono indipendenti allora vale $0$
- #### Varianza della somma
$$
Var(X+Y) = Var(X)+Var(Y)+2Cov(X, Y)
$$
$$
Var(X+Y) = E[(X+Y)^2]-E[(X+Y)]^2
$$
## Variabili aleatorie
- ### Deinsità uniforme su $[a, b]$
$$
f(x) = \begin{cases} {1\over b-a} \quad se \:\: a\le x \le b \\
0 \quad \text{altrove}
\end{cases}
$$
- #### Funzione di ripartizione
$$
F(x) = \begin{cases} 0 \quad x\le a \\
{x-a \over b-a} \quad a<x\le b \\
1 \quad x>b
\end{cases}
$$
- ### Binomiale
Corrisponde a ripetere un test un numero finito di volte.
$$
B(n, p) \\
P(X=k)\; = \; {n\choose k} \ p^k \ (1-p)^{n-k}
$$
Dove $p$ è la probabilità di avere un successo e $n$ è il numero di estrazioni.
Se $X \rightarrow B(n, p)$ e $Y \rightarrow B(m, p)$ indipendenti e con stesso $p$ allora $(X+Y) \rightarrow B(n+m, p)$
- ### Geometrica
Corrisponde a ripetere un test finché non ha esito positivo.
$$
G(p) \\
P(X=k)\; = \; (1-p)^{k-1}\ p
$$
Dove $p$ è la probabilità di avere successo.
Non ha memoria quindi $P(X\le s+k \;| \; X\ge s) = P(X \le k)$, quindi non ci interessa quandi fallimenti diamo per scontato siano accaduti.
- ### Poisson
$$
\mathcal{P}({\lambda})\\
{\displaystyle P(X=k)={\frac {\lambda ^{k}}{k!}}e^{-\lambda }}
$$
Dove $\lambda$ è il numero medio di eventi per intervallo di tempo.
Se $X \rightarrow \mathcal{P}(\lambda_1)$ e $Y \rightarrow \mathcal{P}(\lambda_2)$ indipendenti allora $(X+Y) \rightarrow \mathcal{P}(\lambda_1 + \lambda_2)$
- ### Esponenziale
Con parametro $\lambda$>0. $\lambda$ è il valore che la funzione assume in 0 per poi descrescere.
$$
\mathcal{E}(\lambda) \\
\mathcal{f}(x)=\biggl\{\begin{array}{rl}\lambda e^{-\lambda x} & x\geq0\\0 & x<0\end{array}
$$
Non ha memoria quindi $P(X\le s+k \;| \; X\ge s) = P(X \le k)$, quindi non ci interessa quandi fallimenti diamo per scontato siano accaduti.
- ### Gaussiana
Sarebbe la distribuzione normale.
$$
N(m, \sigma^2) \\
\phi(x) =\frac{1}{\sqrt{2\pi\sigma^2}}\ e ^{-\frac{(x-m)^2}{2\sigma^2}}
$$
La sua versione più importante è quella con $m = 0$ e $\sigma =1$
$$
N(0, 1) \\
\phi(x) = \frac{1}{\sqrt{2\pi}}\ e ^{-\frac{x^2}{2}}
$$
Mentre la funzione di ripartizione associata è
$$
\Phi(x) = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{x} e^{-t^2 \over 2}dt
$$
Per calcolare la funzione di ripartizione $\Phi(x)$ si usa la tavola $N(0, 1)$ mettendo come input il punto $x$ del piano.
Per calcolare il quantile $q_\alpha$ della gaussiana standard ci affidiano nuovamente alla tavola:
Se ${1\over 2}<\alpha \le 1$ allora si può cercare $\alpha$ direttamente, altrimenti se $0 < \alpha \le {1\over 2}$ si usa l'equazione $q_{1-\alpha} = -q_{\alpha}$ e quindi $q_{\alpha} = -q_{1-\alpha}$
Per convertire una funzione $m, \sigma$ in $0, 1$ bisogna utilizzare una variabile aleatoria di conversione
$$
Y=\sigma X +m
$$
e da qui possiamo convertire le coordinate $x$ della prima nella seconda e viceversa
$$
y=\sigma x +m \\
x = \frac{y-m}{\sigma}
$$
Per i quantili vale la stessa roba: dato $q_\beta$ coordinata $x$ del quantile $\beta$ associato alla variabile standard $X$, possiamo ricavare $r_\beta$ coordinata $y$ dello stesso quantile $\beta$ ma in $Y$ con la formula di prima, e quindi ci basta trovare subito il quartile in $X$
$$
r_\beta=\sigma q_\beta + m
$$
Se $X \rightarrow N(m_1, \sigma_1^2)$ e $Y \rightarrow N(m_2, \sigma_2^2)$ indipendenti allora $(X+Y) \rightarrow N(m_1+m_2, \sigma_1^2+\sigma_2^2)$
Abbiamo anche la regola della concentrazione dei dati
Se $Y$ è $N(m, \sigma^2)$ abbiamo che:
$$
P\{ m-\sigma \le Y \le m+\sigma \} \approx 0.68 \\
P\{ m-2\sigma \le Y \le m+2\sigma \} \approx 0.94 \\
P\{ m-3\sigma \le Y \le m+3\sigma \} \approx 0.997 \\
$$
### Funzione generatrice
- #### Discreta
$$
G_x(t) = \sum_{x_i} e^{tx_i}p(x_i)
$$
Esiste $\forall t \in \mathbb{R}$
- #### Con densità
Richiede che $f_x$ sia limitata: $(sup(f_x) = M < +\infty)$
e che $f_x \not= 0$ su un insieme limitato
(entrambe condizioni sufficienti)
$$
G_x(t) = \sum_{x_i} e^{tx_i}p(x_i)
$$
Esiste $\forall t \in \mathbb{R}$
- #### Esistenza momenti
Se $G_x(t)$ è definita su $-\epsilon $