# Formulario CPS ## Probabilità - ### Probabilità condizionata $$ P(A|B)=\frac{P(A\cap B)}{P(B)} $$ - ### Formula condizionamento ripetuto $$ P(A_1\cap A_2\cap A_3\cap A_4) = P(A_1)P(A_2|A_1)P(A_3|A_2\cap A_1) P(A_4|A_1\cap A_2\cap A_3) $$ - ### Formula di fattorizzazione $$ P(A) = P(A | B_1) P(B_1) + P(A|B_2)P(B_2) $$ - ### Probabilità delle cause $$ P(B_1 | A) = \frac{P(A | B_1)P(B_1)}{P(A)} $$ - ### Probabilità delle cause con fattorizzazione $$ P(B_1 | A) = \frac{P(A | B_1)P(B_1)}{P(A | B_1) P(B_1) + P(A|B_2)P(B_2)} $$ - ### Indipendenza $$ P(A|B) = P(A) \\ P(B|A) = P(B) \\ P(A\cap B) = P(A) P(B) $$ - ### Eventi incompatibili Due eventi si dicono incompatibili se al verificarsi di uno non si può verificare l'altro $$ A\cap B = \emptyset $$ Se si verifica A allora non si verifica B e viceversa ## Variabili aleatorie discrete e con densità - ### Discreta Dato un insieme finito o numerabile di punti $x_1, x_2, x_3, \ldots$ si ha che: $$ p(x_i) = P(\{x_i\}) \\ p(x_i) \ge 0 \\ p(x_1) + p(x_2) + \ldots = 1 \\ P(A) = \sum_{x_i\in A}p(x_i) \quad A\text{ è un evento} $$ - #### Funzione di massa o densità discreta $$ p(x) = \begin{cases} p(x_i) \quad se\:\: x=x_i \\ 0\quad se \:\: x_i\; \text{non è uno dei punti} \; x_1,x_2,\ldots\end{cases} $$ - ### Con densità - #### Densità $$ f(x) \ge 0 \\ \int_{-\infty}^{+\infty}f(x) x = 1 $$ Definita solo su insiemi misurabili - ### Funzione di ripartizione (c.d.f.) $$ F_X : \mathbb{R} \rightarrow [0,1]\\ F_X(x) = P(X\le x) $$ - #### Proprietà - Crescrente $$ x<y \Rightarrow F(x)<F(y) $$ - Limiti all'infinito $$ \lim_{x\rightarrow -\infty} F(x) = 0 \\ \lim_{x\rightarrow +\infty} F(x) = 1 \\ $$ - $F$ è continua a destra $$ y>=x\\ \lim F(y) = F(x) $$ - #### Discrete $$ F_X(x) = P(X\le x) = \sum_{x_i\le x}p(x_i) $$ - #### Con densità Se $X$ è con densità allora $F_X(x)$ è continua $$ F_X(x) = P(X\le x) = \int_{-\infty}^{x} f(t) dt $$ - #### Calcolo su $h(X)$ formula per trovare la densità Data $X$ con densità deversa da $0$ su un intervallo $A$ e $h:A\rightarrow B$ Se $h$ è **biunivoca derivabile e con inversa derivabile** allora $$ Y=h(X) \quad \text{ha densità:}\\ f_Y(y) = \begin{cases} f_X(h^{-1}(y))\cdot |{dh^-1(y)\over dy}| \quad y \in B \\ 0 \quad y \not\in B \\ \end{cases} $$ Se invece abbiamo che non valgono le proprietà di $h$ allora si procede cercando la funzione di ripartizione di $Y$ e derivandola. $$ F_Y(y) = P\{Y\le y\} = P\{h(X) \le y\} $$ L'idea è quella di riscrivere la $P\{h(X) \le y\}$ come per avere solo $X$ es. $P\{X^2 \le y\} = P\{-\sqrt{y} \le X \le \sqrt{y}\}$ e a questo punto si applica la funzione di ripartizione di $X$ di base. Il risultato sarà la funzionedi ripartizione di $Y$ e possiamo quindi derivare per ottenere la densità. ## Quantile è un numero $r$ tale che $$ P(X\le r) \ge \beta \\ P(X\ge r) \ge -\beta\\ $$ lo si trova con la funzione di ripartizione $$ P(X\le r_\beta) = F(r_\beta) = \beta $$ ## Variabili aleatorie doppie - ### Densità $$ P_{X, Y}(A) = P\{(X, Y(\in A\} $$ - ### Con densità $$ P_{X, Y}(A) = P\{(X, Y(\in A\} $$ ## Formule generali - ### Convoluzione discreta Date due variabili aleatorie $X$ e $Y$ **indipendenti** possiamo stabilire quanto vale $Z = (X+Y)$ mediante la formula $$ p_z(m) = \sum_{h=0}^{m}p_x(h)p_y(m-h) $$ Nota se ho due variabili di Poisson indipendenti di parametri $\lambda$ e $\mu$ la somma è la variabile di Poisson di parametro $\lambda+\mu$ se ho due variabili binomiali indipendenti di parametri $(n, p)$ e $(m, p)$ la somma è la variabile binomiale di parametri $(n+m,\ p)$ se ho due variabili gaussiane indipendenti di parametri $(m_1, \sigma_1)$ e $(m_2, \sigma_2)$ la somma è la variabile gaussiana di parametri $(m_1+m_2,\ \sigma_1+\sigma_2)$ - ### Convoluzione con densità Date due variabili aleatorie $X$ e $Y$ **indipendenti** possiamo stabilire quanto vale $Z = (X+Y)$ mediante la formula $$ f_z(z) = \int_{-\infty}^{+\infty}f_x(x)f_y(z-x)\; dx $$ ma anche $$ f_z(z) = \int_{-\infty}^{+\infty}f_y(y)f_x(z-y)\; dy $$ - ### Valore atteso - #### Se $X$ e $Y$ sono **indipendenti** vale $$ E[XY] = E[X]E[Y] $$ - #### Generica $X$ discreta $$ E[X] = \sum_i x_i\;p(x_i) $$ - #### Generica $X$ discreta e $Y=g(X)$ $$ E[g(X)] = \sum_i g(x_i)\;p(x_i) $$ - #### Generica $X$ con densità $$ E[X] = \int_{-\infty}^{+\infty}xf(x)\; dx $$ - #### Generica $X$ con densità e $Y=g(X)$ $$ E[g(X)] = \int_{-\infty}^{+\infty}g(x)f(x)\; dx $$ - #### $X$ binomiale $B(n,p)$ $$ E[X]=\sum_{h=0}^n h {n \choose h} p^h(1-p)^{n-h}=np $$ - #### $X$ geometrica da parametro $p$ $$ E[X]=\sum_{h=0}^\infty h(1-p)^{h-1}p $$ - #### $X$ esponenziale da parametro $\lambda$ $$ E[X]=\int_0^\infty x \lambda e ^{-\lambda x}\; dx $$ - ### Varianza e covarianza - #### Varianza $$ Var(X) = E[X^2]-E[X]^2 $$ Nelle variabili gaussiane abbiamo che $Var(X)=\sigma^2$ Nota Se $X$ è costante allora vale $0$ - ##### Binomiale $$ Var(X) = np(1-p) $$ - ### Covarianza $$ Cov(X, Y) = E[XY]-E[X]\;E[Y] $$ Nelle variabili gaussiane abbiamo che $Var(X)=\sigma^2$ Nota Se $X$ e $Y$ sono indipendenti allora vale $0$ - #### Varianza della somma $$ Var(X+Y) = Var(X)+Var(Y)+2Cov(X, Y) $$ $$ Var(X+Y) = E[(X+Y)^2]-E[(X+Y)]^2 $$ ## Variabili aleatorie - ### Deinsità uniforme su $[a, b]$ $$ f(x) = \begin{cases} {1\over b-a} \quad se \:\: a\le x \le b \\ 0 \quad \text{altrove} \end{cases} $$ - #### Funzione di ripartizione $$ F(x) = \begin{cases} 0 \quad x\le a \\ {x-a \over b-a} \quad a<x\le b \\ 1 \quad x>b \end{cases} $$ - ### Binomiale Corrisponde a ripetere un test un numero finito di volte. $$ B(n, p) \\ P(X=k)\; = \; {n\choose k} \ p^k \ (1-p)^{n-k} $$ Dove $p$ è la probabilità di avere un successo e $n$ è il numero di estrazioni. Se $X \rightarrow B(n, p)$ e $Y \rightarrow B(m, p)$ indipendenti e con stesso $p$ allora $(X+Y) \rightarrow B(n+m, p)$ - ### Geometrica Corrisponde a ripetere un test finché non ha esito positivo. $$ G(p) \\ P(X=k)\; = \; (1-p)^{k-1}\ p $$ Dove $p$ è la probabilità di avere successo. Non ha memoria quindi $P(X\le s+k \;| \; X\ge s) = P(X \le k)$, quindi non ci interessa quandi fallimenti diamo per scontato siano accaduti. - ### Poisson $$ \mathcal{P}({\lambda})\\ {\displaystyle P(X=k)={\frac {\lambda ^{k}}{k!}}e^{-\lambda }} $$ Dove $\lambda$ è il numero medio di eventi per intervallo di tempo. Se $X \rightarrow \mathcal{P}(\lambda_1)$ e $Y \rightarrow \mathcal{P}(\lambda_2)$ indipendenti allora $(X+Y) \rightarrow \mathcal{P}(\lambda_1 + \lambda_2)$ - ### Esponenziale Con parametro $\lambda$>0. $\lambda$ è il valore che la funzione assume in 0 per poi descrescere. $$ \mathcal{E}(\lambda) \\ \mathcal{f}(x)=\biggl\{\begin{array}{rl}\lambda e^{-\lambda x} & x\geq0\\0 & x<0\end{array} $$ Non ha memoria quindi $P(X\le s+k \;| \; X\ge s) = P(X \le k)$, quindi non ci interessa quandi fallimenti diamo per scontato siano accaduti. - ### Gaussiana Sarebbe la distribuzione normale. $$ N(m, \sigma^2) \\ \phi(x) =\frac{1}{\sqrt{2\pi\sigma^2}}\ e ^{-\frac{(x-m)^2}{2\sigma^2}} $$ La sua versione più importante è quella con $m = 0$ e $\sigma =1$ $$ N(0, 1) \\ \phi(x) = \frac{1}{\sqrt{2\pi}}\ e ^{-\frac{x^2}{2}} $$ Mentre la funzione di ripartizione associata è $$ \Phi(x) = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{x} e^{-t^2 \over 2}dt $$ Per calcolare la funzione di ripartizione $\Phi(x)$ si usa la tavola $N(0, 1)$ mettendo come input il punto $x$ del piano. Per calcolare il quantile $q_\alpha$ della gaussiana standard ci affidiano nuovamente alla tavola: Se ${1\over 2}<\alpha \le 1$ allora si può cercare $\alpha$ direttamente, altrimenti se $0 < \alpha \le {1\over 2}$ si usa l'equazione $q_{1-\alpha} = -q_{\alpha}$ e quindi $q_{\alpha} = -q_{1-\alpha}$ Per convertire una funzione $m, \sigma$ in $0, 1$ bisogna utilizzare una variabile aleatoria di conversione $$ Y=\sigma X +m $$ e da qui possiamo convertire le coordinate $x$ della prima nella seconda e viceversa $$ y=\sigma x +m \\ x = \frac{y-m}{\sigma} $$ Per i quantili vale la stessa roba: dato $q_\beta$ coordinata $x$ del quantile $\beta$ associato alla variabile standard $X$, possiamo ricavare $r_\beta$ coordinata $y$ dello stesso quantile $\beta$ ma in $Y$ con la formula di prima, e quindi ci basta trovare subito il quartile in $X$ $$ r_\beta=\sigma q_\beta + m $$ Se $X \rightarrow N(m_1, \sigma_1^2)$ e $Y \rightarrow N(m_2, \sigma_2^2)$ indipendenti allora $(X+Y) \rightarrow N(m_1+m_2, \sigma_1^2+\sigma_2^2)$ Abbiamo anche la regola della concentrazione dei dati Se $Y$ è $N(m, \sigma^2)$ abbiamo che: $$ P\{ m-\sigma \le Y \le m+\sigma \} \approx 0.68 \\ P\{ m-2\sigma \le Y \le m+2\sigma \} \approx 0.94 \\ P\{ m-3\sigma \le Y \le m+3\sigma \} \approx 0.997 \\ $$ ### Funzione generatrice - #### Discreta $$ G_x(t) = \sum_{x_i} e^{tx_i}p(x_i) $$ Esiste $\forall t \in \mathbb{R}$ - #### Con densità Richiede che $f_x$ sia limitata: $(sup(f_x) = M < +\infty)$ e che $f_x \not= 0$ su un insieme limitato (entrambe condizioni sufficienti) $$ G_x(t) = \sum_{x_i} e^{tx_i}p(x_i) $$ Esiste $\forall t \in \mathbb{R}$ - #### Esistenza momenti Se $G_x(t)$ è definita su $-\epsilon $