--- tags: Analyse Statistique 3, Tronc Commun, 2022 --- # ASE3 Cheat sheet - Couple de variables aléatoires discrètes et analyse des données ## Loi conjointe d'un couple $(X,Y)$ ### Propriétés Soient $X$ et $Y$ deux variables aléatoires avec : - $X(\Omega) = \{x_i, i \epsilon \mathbb{N} \}$ - $Y(\Omega) = \{y_j, j \epsilon \mathbb{N} \}$ Concernant les probabilités nous avons la propriété suivante : :::info $$p_{i,j} = P((X = x_i)\cap(Y = y_j)) = P(X = x_i, Y = y_j)$$ ::: Ces propriétés sont souvents données dans un tableau à double entrées. :warning: Attention à bien noter la propriété suivante pour les sommes : :::info $$\sum_{i,j\epsilon \mathbb{N}}{p_{i,j}} = 1$$ ::: ### Exemple Exemple du dé, soit $X$ la variable qui vaut $1$ si le résultat est impair et $2$ si il est pair. Soit $Y$ qui vaut $0$ si le résultat est $1$, $1$ si $6$ et $2$ sinon. On obtient alors le tableau à double entrée suivant : | $X/Y$ | $0$ | $1$ | $2$ | $p_i$ | | :-----: | :---: | :---: | :---: |:----: | | $1$ | $\frac{1}{6}$ | $0$ | $\frac{2}{6}$ | $\frac{1}{2}$ | | $2$ | $0$ | $\frac{1}{6}$ | $\frac{2}{6}$ | $\frac{1}{2}$ | | $p_j$ | $\frac{1}{6}$ | $\frac{1}{6}$ | $\frac{4}{6}$ | $1$ | Les probabilités ont été obtenues avec les calculs suivant : - $P(( X = 1)\cap(Y = 0)) = P(X = 1) = \frac{1}{6}$ - $P(( X = 1)\cap(Y = 1)) = P(∅) = 0$ - $P(( X = 1)\cap(Y = 2)) = P(X = 3 \cup X = 5) = \frac{2}{6}$ - $P(( X = 2)\cap(Y = 0)) = P(∅) = 0$ - $P(( X = 2)\cap(Y = 1)) = P(X = 6) = \frac{1}{6}$ - $P(( X = 2)\cap(Y = 2)) = P(X = 2 \cap X = 4) = \frac{2}{6}$ ## Lois Marginales :::info **Définition** On appelle la première / deuxième **loi marginale** la loi de la première composante $X$ / deuxième composante $Y$. On les obtient de la façon suivante : * $p_i = P(X = x_i) = \sum_{j \epsilon \mathbb{N}}P(X = x_i, Y = y_j) = \sum_{j \epsilon \mathbb{N}}p_{i,j}$ * $p_j = P(Y = y_j) = \sum_{i \epsilon \mathbb{N}}P(X = x_i, Y = y_j) = \sum_{i \epsilon \mathbb{N}}p_{i,j}$ ::: ### Exemple Dans l'exemple précedent les colonnes $p_i$ et $p_j$ sont les lois marginales respectivement de $X$ et $Y$. ## Lois Conditionnelles ### Propriétés :::info **Définition** La **loi conditionnelle** est la loi qui pour soit $A$ un évènement tel que $P(A) \neq 0$ et soit $X$ une variable aléatoire réelle sur $\{\Omega, C, P\}$ est la probabilité de $X$ sachant $A$ \ Ainsi la loi conditionnelle de $X$ sachant $A=(x_i, P_A(X=x_i))$ est : $$P_A(X = x_i) = \frac{P((X = x_i) \cap A)}{P(A)}$$ ::: Dans le cas où $A$ est l'évènement $Y = y_j$ : :::info $$P_{(Y = y_i)}(X = x_i) = \frac{P((X = x_i) \cap (Y = y_i))}{P(Y = y_i)}$$ ::: Pour la loi d'un couple $(X,Y)$ : :::info $$P[(X,Y) = (i,j)] = P(X = i)P_{X=i}(Y=j)$$ ::: ### Example Soit $(X, Y)$ un couple dont la loi conjointe est : | $X/Y$ | $1$ | $2$ | $3$ | $4$ | $p_i$ | :-----: | :---: | :---: | :---: |:----: |:-:| | $1$ | $\frac{1}{16}$ | $\frac{1}{16}$ | $\frac{1}{16}$ | $\frac{1}{16}$ | $\frac{1}{4}$| | $2$ | $0$ | $\frac{2}{16}$ | $\frac{1}{16}$ | $\frac{1}{16}$ |$\frac{1}{4}$ | | $3$ | $0$ | $0$ | $\frac{3}{16}$ | $\frac{1}{16}$ | $\frac{1}{4}$| | $4$ | $0$ | $0$ | $0$ | $\frac{4}{16}$ | $\frac{1}{4}$| | $p_j$ | $\frac{1}{16}$ | $\frac{3}{16}$ | $\frac{5}{16}$ | $\frac{7}{16}$ | 1| Dont on veut obtenir la loi conditionnelle telle que $P_{(Y = 3)}(X = x_i)$. On dresse alors le tableau suivant : | $X_i$ | 1 | 2 | 3 | 4 | | :--------: | :--------: | :--------: |:-:|:-:| | $P_{(Y = 3)}(X = x_i)$ | $\frac{1}{5}$ | $\frac{1}{5}$ | $\frac{3}{5}$ | 0 | Les probabilités ont été calculées de la manière suivante : - $P_{(Y = 3)}(X = 1) = \frac{P((X = 1) \cap (Y = 3))}{P(Y = 3)} = \frac{\frac{1}{16}}{\frac{5}{16}} = \frac{1}{5}$ - $P_{(Y = 3)}(X = 2) = \frac{P((X = 2) \cap (Y = 3))}{P(Y = 3)} = \frac{\frac{1}{16}}{\frac{5}{16}} = \frac{1}{5}$ - $P_{(Y = 3)}(X = 3) = \frac{P((X = 3) \cap (Y = 3))}{P(Y = 3)} = \frac{\frac{3}{16}}{\frac{5}{16}} = \frac{3}{5}$ - $P_{(Y = 3)}(X = 4) = \frac{P((X = 4) \cap (Y = 3))}{P(Y = 3)} = \frac{0}{\frac{5}{16}} = 0$ ## Indépendance de variables aléatoires discrètes :::info $X$ et $Y$ sont dites indépendantes si et seulement si : $$P(X = x_i, Y = y_j) = P(X = x_i)P(Y = y_j)$$ $$\Leftrightarrow P_{i,j} = P_iP_j$$ ::: ## Calcul de probabilités d'une fonction ### Propriétés :::info Soit g une fonction de $\mathbb{R^2} \rightarrow \mathbb{R}$, définie sur l'ensemble des valeurs prises par $(X,Y)$. Soit $Z = g(X,Y), Z_n = g(x_i,y_i) \epsilon Z(\Omega)$, alors : $(Z = z_k) = U_{(i,j)}((X = x_i) \cap (Y = y_i))$ avec $z_k=g(x_i,y_i)$ $\rightarrow P(Z=z_k) = \sum_{x,y}P((X=x_i)\cap(Y=y_j))$ avec $z_k=g(x_i,y_i)$ Dans les cas particuliers : - $Z = X + Y = g(X,Y)$ $P(Z=z) = \sum_{(x,y)}P((X=x)\cap(Y=y))$ avec $x+y = z$ - $Z = X.Y$ $P(X.Y = z)= \sum_{(x,y)}P((X=x)\cap(Y=y))$ avec $x.y = z$ ::: ### Exemple | $X/Y$ | $1$ | $2$ | $3$ | $4$ | $p_i$ | :-----: | :---: | :---: | :---: |:----: |:-:| | $1$ | $\frac{1}{16}$ | $\frac{1}{16}$ | $\frac{1}{16}$ | $\frac{1}{16}$ | $\frac{1}{4}$| | $2$ | $0$ | $\frac{2}{16}$ | $\frac{1}{16}$ | $\frac{1}{16}$ |$\frac{1}{4}$ | | $3$ | $0$ | $0$ | $\frac{3}{16}$ | $\frac{1}{16}$ | $\frac{1}{4}$| | $4$ | $0$ | $0$ | $0$ | $\frac{4}{16}$ | $\frac{1}{4}$| | $p_j$ | $\frac{1}{16}$ | $\frac{3}{16}$ | $\frac{5}{16}$ | $\frac{7}{16}$ | 1| #### Déterminer la loi de $Z = X + Y$ $Z = \{2,3,4,5,6,7,8\}$ | $Z_k$ | 2 | 3 | 4 | 5 | 6 | 7 | 8 | | :--------: | :--------: | :--------: |:-:|:-:|:-:|:-:|:-:| | $P_{(Y = 3)}(X = x_i)$ | $\frac{1}{16}$ | $\frac{3}{16}$ | $\frac{3}{16}$ | ... | Avec les calculs suivants : - $P(Z = 2) = P(X + Y = 2) = P((X = 1)\cap(Y=1)) = \frac{1}{16}$ - $P(Z = 3) = P(X + Y = 3) = P((X = 1)\cap(Y=2)) + P((X = 2)\cap(Y=1)) = \frac{1}{16} + \frac{2}{16} = \frac{3}{16}$ - $P(Z = 4) = P(X + Y = 4) = P((X = 1)\cap(Y=3)) + P((X = 2)\cap(Y=2)) + P((X = 3)\cap(Y=1)) = \frac{1}{16} + \frac{2}{16} + 0 = \frac{3}{16}$ - $P(Z = 5) = P(X + Y = 5) = P((X = 1)\cap(Y=4)) + P((X = 2)\cap(Y=3)) + P((X = 3)\cap(Y=2)) + P((X = 4)\cap(Y=1)) = \frac{1}{16} + \frac{1}{16} + 0 + 0 = \frac{2}{16} = \frac{1}{8}$ #### Déterminer la loi de $Z = X.Y$ $Z=\{1,2,3,4,6,8,9,12,16\}$ $P(Z = 4) = P((X = 1)\cap(Y=4)) + P((X = 2)\cap(Y=2)) + P((X = 4)\cap(Y=1)) = \frac{1}{16} + \frac{2}{16} + 0 = \frac{3}{16}$ ... ## Espérance d'une fonction de 2 variables discrètes ### Propriétés :::info Soit $X$ et $Y$ tels que $Z=g(X,Y)$ $E(Z) = E(g(X,Y)) = \sum_{i,j}g(x_i,y_j)P((X=x_i)\cap(y=y_j))$ $\Leftrightarrow E(Z) = \sum_{i,j}g(x_i,y_j)p_{i,j}$ On note aussi : * $E(X) = \sum_iiP(X=x_i)$ * $E(Y) = \sum_jjP(Y=y_j)$ ::: :::success Si $X$ et $Y$ sont deux V.A. indépendantes alors : $E(X.Y) = E(X).E(Y)$ :warning: :::danger La réciproque est fausse ::: ### Example $g(X,Y) = X.Y$ $E(X.Y) = \sum_{i,j}g(x_i,y_j)P((X=x_i)\cap(y=y_j))$ $E(X.Y) = \sum_{i,j}x_i.y_jP_{ij}$ ## Covariance et coefficient de corrélation linéaire ### Covariance :::info **Définition** $X$ et $Y$ deux variables discrètes, on appelle la covariance le réel : $Cov(X,Y) = E((X - E(X)(Y-E(y)))$ ::: :::success **NB** Si $X$ et $Y$ admettent tous les 2 une variance, alors on aura : $Cov(X,Y) = E(XY) - E(X)E(Y)$ ::: :warning: Si $X$ et $Y$ sont indépendantes alors $Cov(X,Y) = 0$ :warning: ### CCL :::info **Définition** On suppose que $X$ et $Y$ admettent une variance non nulle, le coefficeient de corrélation linéaire de $(X,Y)$, noté $C(x,y)$ / $p(x,y)$, est : $p(X,Y) = \frac{Cov(X,Y)}{\sigma_x\sigma_y}$ On notera bien : * $\sigma_x = \sqrt{V(X)}$ * $\sigma_y = \sqrt{V(Y)}$ ::: ## Rappels utiles ### Lois discrètes #### Loi Binomiale $B(n, p)$ La loi binomiale modélise la fréquence du nombre de succès obtenus lors de la répétition de plusieurs expériences aléatoires identiques et indépendantes. On considère une expérience aléatoire E et un événement A lié à E, de probabilité non nulle, avec P(A) = p. On appelle succès, la réalisation de A et échec, celle de - $P(X = k) =$ $\binom{n}{k}$$p^k$$(1 - p)^{n-k}$ avec $\binom{n}{k}$ = $\frac{n!}{k!(n-k)!}$ - $E(X) =$ $np$ - $V(X) =$$npq$ avec $q = 1 - p$ #### Loi de Bernouilli de paramètre $p : B(p)$ $X$ ne peut prendre que les valeurs $1$ ou $0$, c'est une distribution discrète de probabilité, qui prend la valeur $1$ avec la probabilité $p$ et $0$ avec la probabilité $q = 1 – p$. - $P(X = k) = p$ et $P(X = 0) = 1 - p = q$ - $E(X) = p$ - $V(X) = p(1 - p)$ #### Loi de Poisson : $P(λ)$ (λ paramètre) Décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. - $P(X = k) = \frac{λ^k}{k!}e^{-λ}$ - $E(X) = V(X) = λ$ ### Suites géométriques :::info $\sum_{k=0}^{+\infty}X^n = \frac{1}{1 - X}$ ::: ### Les tricks :::info $e^X = \sum_{j=0}^{+\infty}\frac{x^j}{j!}$ Dans le cas de $X = 1$ : $e = \sum_{j=0}^{+\infty}\frac{1}{j!}$ ::: :::info $\sum x = \frac{x(x+1)}{2}$ ::: ### Les sommes :::info $\sum_{i=1}^n\sum_{j=i}^na_{ij} = \sum_{j=1}^n\sum_{i=1}^ja_{ij}$ ::: ### Variance :::info * $E(X^2) - (E(X))^2 = V(X)$ * $V(X+Y) = V(X) + V(Y) + 2Cov(X,Y)$ ::: ### Binôme de Newton :::info $(x+y)^n = \sum_{k=0}^n\binom{n}{k}x^ky^{n-k}$ :::