--- tags: Maths, TC, Regragi --- ![](https://i.imgur.com/uAHZwSM.png =200x) # Analyse des données ## Plan du cours **1. Description bidimensionnelle et mesure des liaisons entre X et Y** - Loi conjointe(Loi du couple (X, Y)) - Lois marginales - Lois conditionnelles - Indépendance, Covariance(N(X,Y) et corrélation) **2. Description multidimensionnelle** - Tableau des donnees - Matrice des poids - Centre de gravité des nuages de points formé par les individus -- les lignes sont les individus -- les colonnes sont les variables - Matrice des Var-Covariance - Matrice de Corrélation - Algo A.C.P (analyse composante principale) - Projection des individus ## Description bidimensionnelle et mesure des liaisons entre X et Y ### Couple de variables aléatoires (X, Y) / Loi conjointe Soient X et Y deux variables aléatoires discrètes définies sur un même espace probabilisé ($\Omega$, $C$, $P$) _(Univers, Tribu, Proba)_. $X(\Omega) = {x_i / i\in I}$ valeurs de X $Y(\Omega) = {y_j / j\in J}$ valeurs de Y :::info On appelle la loi du couple (X,Y), aussi appelée **loi conjointe**, l'ensemble des couples ($x_i$, $y_i$, $p_{i,j}$) où $x_i \in X(\Omega)$, $y_j \in Y(\Omega)$ $$p_{ij} = P((X = x_i)\cap(Y=y_j))$$ ::: *Remarque:* Si $I = [[1,r]]$ et $J = [[1,s]]$ $$ \begin{array}{c|ccccc} {X\backslash Y} & {y_1} & {...} & {y_j} & {...} & {y_s} \\ \hline {x_1} & {p_{1,1}} & {...} & {p_{1,j}} & {...} & {p_{1,s}} \\ {...} & {...} & {...} & {...} & {...} & {...} \\ {x_i} & {p_{i,1}} & {...} & {p_{i,j}} & {...} & {p_{i,s}} \\ {...} & {...} & {...} & {...} & {...} & {...} \\ {x_r} & {p_{r,1}} & {...} & {p_{r,j}} & {...} & {p_{r,s}} \\ \end{array} $$ $$p_{ij} \geq 0 \\ \sum_{ij} p_{ij} = 1$$ ### Lois marginales :::info Les variables X et Y sont appelées variables marginales du couple (X, Y) $$ p_{i.} = P(X = x_i) = \sum_{j\in J} p_{ij}\\ p_{.j} = P(Y = y_j) = \sum_{i\in I} p_{ij}$$ ::: #### Exemple $$ \begin{array}{c|cccc|c} {X\backslash Y} & {1} & {2} & {3} & {4} & {p_i.} \\ \hline {1} & {1/16} & {1/16} & {1/16} & {1/16} & {1/4} \\ {2} & {0} & {2/16} & {1/16} & {1/16} & {1/4} \\ {3} & {0} & {0} & {3/16} & {1/16} & {1/4} \\ {4} & {0} & {0} & {0} & {4/16} & {1/4} \\ \hline {p_.j} & {1/16} & {3/16} & {5/16} & {7/16} & {1} \\ \end{array} $$ $p_{i.}$ Loi marginale de X $p_{.j}$ Loi marginale de Y ### Lois conditionnelles :::info La loi conditionnelle de $X=x_i$ sachant que $Y = y_j$ $$ P_{Y = y_j}(X=x_i) = \frac{p_{i,j}}{p_{.j}}$$ de même $$ P_{X = x_j}(Y=y_j)= \frac{p_{i,j}}{p_{i.}}$$ ::: #### Exemple On reprend l'exemple précédent. $P_{Y = 3}(X=1) = \frac{p_{13}}{p_{.3}} = \frac{1/16} {5/16} = 1/5$ | $x_i$ | 1 | 2 | 3 | 4 | | ---------------- | --- | --- | --- | --- | | $P_{Y=3}(X=x_0)$ | 1/5 | 1/5 | 3/5 | 0 | :::info X et Y sont deux variables indépendantes si et seulement $$p_{ij} = P((X = x_i) \cap (Y = y_j)) = P(X = x_i).P(Y = y_j)\\ \Leftrightarrow P_{Y=y_i}(X=x_i) = P(X = x_i)$$ $$p_{ij} = p_{i.}p_{.j} \qquad \forall j \in J, \forall i \in I$$ ::: ### Loi d'une fonction de deux variables X et Y :::info $g: \mathbb{R}^2 \rightarrow \mathbb{R}$ fonction définie sur l'ensemble des valeurs prises par $(X,Y)$. $Z = g(X,Y)$ $g(x_i, y_j) = Z_k, \forall x_i \in X(\Omega), \forall y_j \in J(\Omega)$ $Z(\Omega) = \{Z_k / k \in K\}\quad K \subset \mathbb{N}$ $$(Z=Z_k) = \bigcup_{(i, j)\\ g(x_i, y_j) = Z_k} ((X=x_i)\cap(Y = y_j))\\ P(Z=Z_k) = \sum_{(i, j)\\ g(x_i, y_j) = Z_k} \\P((X = x_i)\cap(Y = y_j))$$ ::: #### Exemple En particulier, $$P(X + Y = Z) = \sum_{(x,y)\\ x+y = Z} P((X=x)\cap(Y=y))\\ P(X . Y = Z) = \sum_{(x,y)\\ xy = Z} P((X=x)\cap(Y=y))$$ $$g(X,Y) = X + Y\\ g(X,Y) = X . Y$$ ### Exemple | X\\Y | 1 | 2 | 3 | 4 | |:---- | ---- | ---- | ---- |:---- | | 1 | 1/16 | 1/16 | 1/16 | 1/16 | | 2 | 0 | 1/8 | 1/16 | 1/16 | | 3 | 0 | 0 | 3/16 | 1/16 | | 4 | 0 | 0 | 0 | 0 | :::spoiler Déterminer la loi de la somme S = X + Y $P(S = 5) = P((X=1)\cap(Y=4)) + P((X=2)\cap(Y=3))\\ \qquad + P((X=3)\cap(Y=2)) + P((X=4)\cap(Y=1))$ | S | 2 | 3 | 4 | 5 | 6 | 7 | 8 | |:------------:| ---- | ---- | ---- | ---- | ---- | ---- |:---- | | $P(S = s_i)$ | 1/16 | 1/16 | 3/16 | 2/16 | 4/16 | 1/16 | 4/16 | Loi du produit: $\mathbb{P} = X.Y$ | $\mathbb{P}$ | 1 | 2 | 3 | 4 | 6 | 8 | 9 | 12 | 16 | |:------------:| ---- | ---- | ---- | ---- | ---- |:---- |:----:|:----:| ---- | | $P(S = s_i)$ | 1/16 | 1/16 | 1/16 | 3/16 | 1/16 | 1/16 | 3/16 | 1/16 | 4/16 | ::: ### Espérance de $Z = g(X,Y)$ :::info $$E(Z) = \sum_{i\in I} \sum_{j\in J} g(x_i, y_j)P((X=xi_)\cap (Y=y_j))\\ E(g(X,Y)) = \sum_{i,j} g(x_i, y_j) p_{ij}$$ ::: *Remarque :* $E(X.Y) = \sum_{i, j} x_iy_jp_{i,j}$ *Remarque* Si X et Y 2 variables aléatoires indépendantes alors $E(X.Y) = E(X)E(Y)$ :::warning :warning: Réciproque fausse ::: ### Exemple :::spoiler Enoncé | X\\Y | 0 | 1 | 2 | Loi de X | | -------- | ----- | --- | --- | -------- | | 0 | 1/20 | 1/4 | 0 | 3/10 | | 1 | 17/60 | 1/4 | 1/6 | 7/10 | | Loi de Y | 1/3 | 1/2 | 1/6 | 1 | ::: :::spoiler Calcul d'espérance Calculer l'espérance de $X.Y$ $$ E(X.Y) = \sum_{i = 0}^1 \sum_{j = 0}^2 i.jp_{ij} \\ \qquad = \frac{1}{4} + \frac{2}{6} = \frac{7}{12}$$ On a bien $E(X.Y) = E(X)E(Y)$ mais $((X=0)\cap(Y=2)) = 0$ $\quad \neq P(X=0).P(Y=2)$ ::: ### Covariance de $(X,Y)$ :::info On appelle covariance de $(X,Y)$ $$ cov(X,Y) = E(X,Y) - E(X)E(Y) $$ ::: :::info On appelle coefficient de corrélation linéaire $$ \rho(X,Y) = \frac{cov(X,Y)}{\sqrt{V(X)}\sqrt{V(Y)}}$$ ::: *Remarque* $\rho(X, Y) = \frac{<X-E(X), Y-E(Y)>}{\sigma_x . \sigma_y}$ $$ \sigma_X = \sqrt{V(X)} = ||X-E(X)||\\ \sigma_Y = \sqrt{V(Y)} = ||Y - E(Y)|| $$ $|\rho| \leq 1$ si $\rho = 1$ forte corrélation linéaire entre X et Y si $\rho = 0 \Rightarrow$ pas de corrélation ### Exercice 1 Soit X une variable aléatoire tel que $Y=X^2$. 1. Donner la loi conjointe 2. Donner la loi marginale 3. Etudier l'indépendance 4. Calculer la covariance :::spoiler 1. Réponse $$ \begin{array}{c|ccc|c} {X\backslash Y} & {0} & {1} & {4} & {p_{i}} \\ \hline -2 & {0} & {0} & {1 / 6} & {1/6} \\ {-1} & {0} & {1/4} & {0} & {1/4} \\ {0} & {1 / 6} & {0} & {0} & {1/6} \\ {1} & {0} & {1 / 4} & {0} & {1/4} \\ {2} & {0} & {0} & {1/6} & {1/6}\\ \hline {p_j} & {1/6} & {1/2} & {1/3} \end{array} $$ $P((X=x_i)\cap(Y=y_j)) = 0$ si $y_j \neq x_i^2$ $P((X=x_i)\cap(Y=(x_i)^2)) = P(X=x_i)$ ::: :::spoiler 2. Réponse $P(Y=0) = 1/6$ $P(Y=1) = 1/2$ $P(Y=4) = 1/3$ ::: :::spoiler 3. Réponse $P((X=0)\cap(Y=1))=0 \quad \neq \quad P(X=0)P(Y=1)=1/6*1/2=1/12$ Si X et Y sont indépendants alors $E(X.Y) = E(X)E(Y)$ ::: :::spoiler 4. Réponse $cov(x,y) = E(XY) - E(X)E(Y)$ $E(X.Y) = \sum_{i,j} x_iy_jp_{ij}$ $E(X.Y) = -8/6-1/4+1/4+8/6=0$ $E(X) = \sum x_iP(X=x_i)$ $E(X) = 2/6 - 1/4 + 1/4 + 2/6$ ::: :::spoiler Tableau récapitulatif Soit X une variable aléatoire. Y = X² | $X_i$ | -2 | -1 | 0 | 1 | 1 | |:-----:|:---:|:---:|:---:|:---:|:---:| | $p_i$ | 1/6 | 1/4 | 1/6 | 1/4 | 1/6 | ::: ### Exercice 2 Soit $a \in \mathbb{R}_+^*$, $X$ et $Y$ sont deux variables à valeurs dans $\mathbb{N}$ $$P((X=k) \cap (Y=j)) = \frac{a}{2^{k+1}(j!)} \quad \forall (k,j) \in \mathbb{N}^2$$ 1. Déterminer a 2. Déterminer les lois marginales $P(X=k)$ et $P(X=j)$ 3. $X$ et $Y$ sont-ils indépendants ? 4. Calculer la covariance $cov(X,Y)$ :::spoiler 1. Réponse On a $\sum_{k,j}p_{kj} = 1$ $\sum_{k=0}^{+\infty}\sum_{j = 0}^{+\infty} \frac{a}{2^{k+1}j!}$ $\Leftrightarrow a \sum_{k=0}^{+\infty} \frac{1}{2^{k+1}} \sum_{j = 0}^{+\infty} \frac{1}{j!} = 1$ $\Leftrightarrow ae\frac{1}{2}\sum_0^{+\infty} \frac{1}{2}^k = 1$ $\Leftrightarrow \frac{ae}{2}2 = 1$ $\Leftrightarrow a=e^{-1}$ *Rappel:* $$e^x = \sum_{j=0}^{+\infty} \frac{X^j}{j!} \quad \forall x \in \mathbb{R}\\ \sum_{0} a^k = \frac{1}{1-a}, \quad |a| < 1$$ ::: :::spoiler 2. Réponse *Rappel :* Loi de X $$P(X=k) = \sum_0^{+\infty} P((X=k) \cap (Y = j))\\ = \sum_{j=0}^{+\infty} \frac{e^{-1}}{2^{k+1}j!}\\ = \frac{e^{-1}{2^{k+1}}}e = \frac{1}{2^{k+1}} \forall k \in \mathbb{N}$$ Loi de Y $$ P(Y=j) = \sum_{k=0}^{+\infty} P((X=k)\cap(Y=j)) $$ $$P(Y=j) = \sum_{k = 0}^{+\infty} \frac{e^{-1}}{j!2^{k+1}} \\ = \frac{e^{-1}}{j!} \frac{1}{2} \sum_{k=0}^{+\infty}\frac{1}{2^k}\\ = \frac{e^{-1}}{j!}\frac{1}{2^k}(\frac{1}{1-1/2})$$ ::: :::spoiler 3. Réponse $$ P(X=k).P(Y=j)=\frac{1}{2^{k+1}}.\frac{e^{-1}}{j!} = P((X=k)\cap(Y=j) \\ \forall (k,j) \in \mathbb{N}^2$$ Donc X et Y sont indépendantes ::: :::spoiler 4. Réponse $indépendance \Rightarrow E(X,Y)=E(X).E(Y)\\ \Rightarrow cov(X,Y) = 0$ ::: ### Exercice 3 On considère $n$ boîtes numérotées de 1 à $n$. La boîte numéro $k$ contient $k$ boules numérotées de 1 à $k$. On choisit une boîte au hasard puis une boule dans cette boîte. On nomme X le numéro de la boîte et Y le numéro de la boule. 1. Donner la loi conjointe de $X$, $Y$ 2. Calculer $P(X=Y)$ 3. Déterminer la loi de $Y$ et calculer l'espérance $E(Y)$ :::spoiler 1. Réponse $$X(\Omega) = Y(\Omega) = [[1,n]]$$ $$ P((X=i)\cap(Y=j)) = P_{X=i}(Y=j)P(X=i)$$ ++1er cas++ si $j > i \quad P((X=i)\cap(Y=j)) = 0$ ++2e cas++ si $j \leq i \quad P((X=i)\cap(Y=j)) = \frac{1}{i} \frac{1}{n}$ ::: :::spoiler 2. Réponse $$(X=Y) = \bigcup_{i = 1}^n \underbrace{((X=i) \cap (Y=i))}_{\text{événements incompatibles}}$$ $$P(X=Y) = \sum_{i=1}^n P((X=i) \cap (Y=i))\\ = \sum_{i = 1}^{n} \frac{1}{i.n}\\ =\frac{1}{n} \sum_{i= 1}^{n} \frac{1}{i}$$ ::: :::spoiler 3. Réponse $$P(Y=j) = \sum_{i=1}^{n} P((X=i)\cap(Y=j)) \quad \forall j \in Y(\Omega) \\ = \sum_{i \geq j}^n \frac{1}{i.n} \\ = \frac{1}{n}\sum_{i \geq j}^{n} \frac{1}{j}$$ $$E(Y)= \sum_{j = 1}^{n} jP(Y=j)\\ = \sum_{j=1}^n j\frac{1}{n} \sum_{i=j}^{n} \frac{1}{i}\\ = \frac{1}{n}\sum_{i = 1}^{n} \frac{1}{i} \sum_{j = 1}^{i} j\\ = \frac{1}{n} \sum_{i = 1}^{n} \frac{1}{i} \frac{i(i+1)}{2} \\ = \frac{1}{2n} \sum _{i=1}^{n} (i+1)\\ = \frac{1}{2n} (\frac{n(n+1)}{2} + n)\\ = \frac{1}{2}(\frac{n+1}{2} + 1)\\ = \frac{n+3}{4}$$ ::: ### Exercice 4 Une urne contient une boule blanche et une boule noire. On y prélève une boule, chaque boule ayant la même probabilité d'être tirée. On note sa couleur et on la remet dans l'urne avec $c$ boules de la même couleur. On répète cette expérience $n$ fois ($n \geq 2$). $$ X_i = \left\{ \begin{array}{ll} 1 & \mbox{si on obtient une boule blanche au ième tirage} \\ 0 & \mbox{sinon} \end{array} \right. $$ $$Z_p = \sum_{i = 1}^{p} X_i \quad 2 \leq p \leq n$$ ($Z_p$ = nombre de boules blanches obtenues parmi les $p$ premiers tirages) 1. Déterminer la loi du couple (X1, X2) 2. Déterminer la loi de $Z_2$ 3. Déterminer Zp(Omega) et calculer $P_{Z_p = k}(X_{p+1} = 1)$ 4. Montrer que $P(X_{p+1} = 1) = \frac{1+c E(Z_p)}{2+pc}$ 5. Montrer que $\forall p \in [[1, n]] \quad P(X_p = 1) = P(X_p = 0) = \frac{1}{2}$ :::spoiler 1. Réponse $$P(X_1 = 1) = 1/2 = P(X_1 = 0)$$ $X_1$ suit $B(1/2)$ Bernouilli $$P((X_1 = i) \cap (X_2 = j)) = P_{X_1 = i}(X_2=j)P(X_1 = i) \\ (i,j) \in [[0,1]]^2$$ ++1er cas :++ $$i \neq j \quad P((X_1 = i) \cap (X_2 = j))= \frac{1}{(2 + c)}\frac{1}{2}$$ ++2e cas :++ $$i = j \quad P((X_1 = i)\cap(X_2 = i)) = \frac{1+c}{2+c}1/2$$ $$ \begin{array}{c|cc|c} {X1 \backslash X2} & {0} & {1} & {\text{Loi de}\ X_1} \\ \hline {0} & \frac{1+c}{2(2+c)} & {\frac{1}{2(c+2)}} & {1/2} \\ {1} & {\frac{1}{2(c+2)}} & {\frac{1+c}{2(2(2+c))}} & {1/2} \\ \hline {\text{Loi de}\ X2} & {1/2} & {1/2} & {1} \end{array} $$ $X_2$ suit $B(1/2)$ ::: :::spoiler 2. Réponse $$ Z_2 = \sum_{i=1}^2 X_i \\ Z_2(\Omega) = [[0,2]] $$ ++Loi de $Z_2$ :++ $$ P(Z_2 = 0) = P((X_1=0)\cap(X_2=0)) \\ P(Z_2 = 0) = \frac{1+c}{2(2+c)}$$ $$P(Z_2 = 1) = P((X_1 = 0) \cap (X_2 = 1)) + P((X_1 = 1) \cap (X_2 = 0)) \\ P(Z_2 = 1) = \frac{1}{2+c} $$ $$P(Z_2 = 2) = P((X_1 = 1)\cap(X_2 = 1)) \\ P(Z_2 = 2) = \frac{1+c}{2(2+c)} $$ ::: :::spoiler 3. Réponse $Z_p(\Omega) = [[0,p]]$ $Z_p = k$ = On a tiré $k$ boules blanches au cours des $p$ premiers tirages (et donc $p-k$ boules noires) $X_{p+1} = 1$ = On tire une boule blanche au prochain tirage Avant de passer au tirage $p+1$, l'urne contient au total: $kc$ boules blanches $+ (p-k)c$ boules noires + les 2 premières $= 2 + pc$ dont $(1+kc)$ boules blanches. $$\Rightarrow P_{Z_p = k}(X_{p+1} = 1) = \frac{1+kc}{2+pc}$$ ::: :::spoiler 4. Réponse $$(X_{p+1} = \bigcup_{k=0}^p (\underbrace{(X_{p+1} = 1) \cap (Z_p = k)}_{\text{incompatibles}}) \\ P(X_{p+1}) = \sum_{k=0}^p P((X_{p+1})\cap(Z_p = k)) \\ = \sum_{k=0}^p P_{Z_p = k}(X_{p+1} = k)P(Z_p = k) \\ = \sum_{k = 0}^p (\frac{1 + kc}{2+pc} P(Z_p = k) \\ = \frac{1}{2+pc}(\underbrace{\sum_{k=0}^p P(Z_p = k)}_{=1} + c\underbrace{\sum_{k=0}^p kP(Z_p = k))}_{E(Z_p)} \\ = \frac{1 + c E(Z_p)}{2+pc}$$ ::: :::spoiler 5. Réponse Soit $R(p)$ la propriété $P(X_p = 1) = P(X_p = 0) = \frac{1}{2}$. **Raisonnement par récurence** ++Hypothèse :++ $R(1)$ et $R(2)$ vraies (1ere question). Supposons $R(k)$ vérifiée pour $k = 1, 2, ... p$ $$Z_p = \sum_{i=1}^p X_i \\ E(Z_p) = \sum_{i = 1}^p E(X_i)\\ E(Z_p) = \sum 1/2 = p/2\\ P(X_{p+1} = 1) = \frac{1 + c E(Z_p)}{2+pc}\\ = \frac{1+c p/2}{2+pc} = 1/2\\ \text{et}\ P(X_{p+1} = 0) = 1- 1/2 = 1/2 \\ X_{p+1}\ \hookrightarrow B(1/2)$$ ::: ### Exercice 5 Une urne contient des boules noires en proportions $p$ ($0 < p < 1$) et des boules blanches en proportions $q=1-p$ On effectue une suite de tirages d'une boule avec remise. 1. On note N le rang aléatoire d'apparition de la 1ere boule noire et B celui de la 1ere boule blanche 1. Déterminer les lois de $N$ et $B$ ainsi que $E(N)$, $E(B)$, $V(N)$, $V(B)$ 2. $N$ et $B$ sont-elles indépendantes ? 2. On note X la longueur de la première suite de boules de la même couleur et Y celle de la 2e. 1. Déterminer la loi conjointe de (X, Y) 2. Loi de X, espérance ; mq $E(X) \geq 2$ 3. Loi de Y, espérance et variance 4. Calculer $P(X = Y)$ 5. Loi de X+Y pour $p = 1/2$ **Question 1** :::spoiler 1. Réponse $N$ est la variable aléatoire du temps d'attente de la 1ere réalisation "obtenir une bouler noire". $B$ est la variable aléatoire du temps d'attente de la 1ere réalisation "obtenir une bouler blanche". $$N(\Omega) = [[1, +\infty[[ \qquad B(\Omega) = [[1, +\infty[[ \\ N \hookrightarrow G(p) \quad \text{(Loi géométrique)} $$ $$P(N=k) = (1-p)^{k-1}p = q^{k-1}p \\ P(B=k) = (1-q)^{k-1}q = p^{k-1}q $$ $$E(N) = \frac{1}{p} \qquad V(N) = \frac{q}{p^2} \\ E(B) = \frac{1}{q} \qquad V(B) = \frac{p}{q^2} $$ $$N \hookrightarrow G(p)\ \text{et}\ B \hookrightarrow G(q)$$ ::: :::spoiler 2. Réponse $$P(\underbrace{(N=1)\cap(B=1)}_{\oslash}) = P(\oslash) = 0\\ P(N=1).P(B=1) = pq \neq 0\\ \Rightarrow\ \text{N et B ne sont pas indépendants}$$ ::: \ **Question 2** :::spoiler Exemple $(X=1)\cap(Y=2)$ est réalisé par $(N_1 \cap B_2 \cap B_3 \cap N_4)$ ou $(B_1 \cap N_2 \cap N_3 \cap B_4)$ $X(\Omega)=Y(\Omega)=\mathbb{N}^*$ ::: :::spoiler 1. Réponse $$(X=i)\cap(Y=j) : \quad ((\bigcap_{k=1}^i N_k) \cap (\bigcap_{k =i}^{j+i+1} B_k)) \cup ((\bigcap_{k=1} ^i B_k) \cap (\bigcap_{k =i}^{j+i+1} N_k)) \\ \Rightarrow P((X=i)\cap(Y=j)) = p^{i+1}q^j + q^{i+1}p^j \qquad \forall (i,j) \in (\mathbb{N}^*)^2 $$ ::: :::spoiler 2. Réponse ++Loi de X++ $$ P(X=i)= \sum_{j=1}^{+\infty} p(^{i+1}q^j+q^{i+1}p^j) \\ P(X=i) = p^{i+1}q (\frac{1}{1-q}) + q^{i+1}p\frac{1}{1-p} \\ \boxed{P(X=i) = p^iq + q^ip} $$ ++Espérance++ $$ E(X) = \sum_{n=1}^{+\infty} nP(X=n) \\ E(X) = \sum_{n = 1}^{+\infty} n(qp^n + pq^n) \\ E(X) = \sum_{n = 1}^{+\infty} nqp^n + \sum_{n=1}^{+\infty} npq^n \\ E(X) = pq\sum_{n = 1}^{+\infty} np^{n-1} + pq\sum_{n=1}^{+\infty} nq^{n-1} \\ E(X) = pq\frac{1}{(1-p)^2} + pq\frac{1}{(1-q)^2} \\ E(X) = \frac{p}{q} + \frac{q}{p}\\ E(X) = \frac{p^2 + q^2}{pq} $$ ++Montrer que $E(X) \geq 2$++ $$ (p-q)^2 = p^2 + q^2 -2pq \geq 0 \\ \Rightarrow p^2 + q^2 \geq 2pq \\ \Rightarrow \frac{p^2 + q^2}{pq} \geq 2 \\ \Rightarrow E(X) \geq 2 \\ $$ ::: :::spoiler 3. Réponse $$ \forall j \in \mathbb{N} \\ P(Y=j) = \sum_{i=1}^{+\infty} P((X=i)\cap(Y=j)) \\ P(Y = j) = q^j \sum_{i = 1}^{+\infty} p^{i+1} + p^j\sum_{i=1}^{+\infty} q^{i+1} \\ P(Y=j) = p^2q^j\sum_{i=1}^{+\infty} p^{i+1} + q^2p^j\sum q^{i+1} \\ P(Y=j) = p^2q^j \frac{1}{(1-p)} + p^jq^2 \frac{1}{(1-q)} \\ Ok jusqu'ici pour l'instant \\ P(Y=j) = p^2q^{j-1} + q^2p^{j-1} \quad \forall j \in \mathbb{N}^+ \\ E(Y) = \sum_{n=1}^{+\infty} n p^2q^{n-1} + \sum_{n=1}^{+\infty} nq^2p^{n-1} \\ E(Y) = p^2\sum_{n=1}^{+\infty} nq^{n-1} + q^2\sum_{n=1}^{+\infty} np^{n-1} \\ E(Y) = p^2\frac{1}{(1-q)^2} + q^2\frac{1}{(1-p)^2} = \boxed{2}\\ V(Y) = E(Y^2) - E^2(Y) E(Y^2) = \sum_{n=1}^{+\infty} n^2 P(Y=n) \\ E(Y^2) = \sum_{n=1}^{+\infty} n^2p^2q^{n-1} + \sum{n=1}{+\infty} n^2q^2p^{n-1} \\ E(Y^2) = p^2\sum{n=1}{+\infty} n^2q^{n-1} + q^2\sum_{n=1}^{+\infty} n^2p^{n-1} $$ On sait que $\sum_{n=1}^{+\infty} np^n = \frac{p}{(1-p)^2}$ En dérivant par rapport à p: $$ \sum_{n=1}^{+\infty} n^2p^{n-1} = \frac{(1-p)^2+2p(1-p)}{(1-p)^4} \\ = \frac{1-p + 2p}{(1-p)^3} = \frac{1+p}{(1-p)^3} $$ ::: :::spoiler 4. Réponse $$ (X=Y) = \bigcup_{n=1}^{+\infty} (\underbrace{(X=n)\cap(Y=n)}_{\text{événements incompatibles}}) \\ P(X=Y)= \sum_{n=1}^{+\infty} P((X=n)\cap(Y=n)) \\ P(X=Y)= \sum_{n=1}^{+\infty} (p^{n+1}q^n + q^{n+1}p^n) \\ P(X=Y)= p^2q\frac{1}{1-pq} + q^2p\frac{1}{1-pq} \\ P(X=Y)= \frac{p^2q + q^2p}{1-pq} \\ P(X=Y)= \frac{pq(p+q)}{1-pq} \\ \boxed{P(X=Y)= \frac{pq}{1-pq}} $$ ::: :::spoiler 5. Réponse $$ p = q = 1/2 \\ P((X=i)\cap(Y=j)) = (\frac{1}{2})^{i+j} \\ X(\Omega) = \mathbb{N}^* = Y(\Omega) \\ (X+Y)(\Omega) = [[2,+\infty[[ \\ \forall k \in (X+Y)\Omega \\ P(X+Y=k) = \sum_{(i, j) / i+j=k} P((X=i)\cap(Y=j)) \\ P(X+Y=k) = \sum_{i=1}^{k-1} P((X=i)\cap(Y=k-i)) \\ P(X+Y=k) = \sum_{i=1}^{k-1}(\frac{1}{2})^k \\ P(X+Y=k) = (k-1)(1/2)^k $$ ::: ## Analyse en composantes principales (ACP) NB: Les notes du prof sont dispo à partir d'ici dans la partie #Confinement. Et heureusement, parce que la qualité de notre prise de note dégringole très vite. ### Les données et leurs caractéristiques #### Tableau des données Les observations de $p$ varaibles. $X^{(1}), X^{(2)}, \dots, X^{(p)}$ sur $n$ individus, sont rassemblés en une matrice à n ligne X. $$ D = \begin{pmatrix} p_1 & 0 & ... & 0 \\ 0 & p_2 & ... & 0 \\ ... & ... & ... & ... \\ 0 & 0 & ... & p_n \\ \end{pmatrix} $$ $X_i^{(j)}$ est la valeur prise par la variable $X^{j}$ sur le ième individu. $$ X^{(j)} = (X_1^{(j)}\ \dots\ X_n^{(j)})\\ t_{pi} = (X^{(1)}, X^{(2)}, \dots, X^{(p)} \ \text{ième individu} $$ #### Matrices des poids On associe à chaque individu un poids $p_i \geq 0$ (proba de choisir l'individu, $n \geq i$). $$\sum_{i=0}^n p_i = 1 $$ $$ D = \begin{array}{c} e_1 \\ e_2 \end{array} \begin{pmatrix} p_1 & 0 & ... & 0 \\ 0 & p_2 & ... & 0 \\ ... & ... & ... & ... \\ 0 & 0 & ... & p_n \\ \end{pmatrix} $$ Si $p_i = \frac{1}{n} \quad \forall i$ $$ \boxed{D = \frac{1}{n}I_n} $$ #### Centre de gravité Le vecteur $g$ des moyennes arithmétiques de chaque variable $$ t_g = (\bar{X^{(1)}}, \bar{X^{(2)}}, \dots, \bar{X^{(p)}} \\ \boxed{\bar{X^{(j)}}= \sum_{i = 1}^n p_iX_i^{(j)} \quad \forall j = 1-p} $$ g: barycentre du nuage formé par les $n$ individus. Le tableau des données centrées : $Y$ telle que $Y_i^{(j)}=X_i^{(j)} - \bar{X^{(j)}}$ #### Matrice de variance-covariance et matrice de corrélation $$ \boxed{\ ^tV = YDY} $$ V est la matrice de variance-covariance On note $D_{1/S}$ la matrice $$ D_{1/5} = \begin{pmatrix} 1/S_1 & 0 & ... & 0 \\ 0 & 1/S_2 & ... & 0 \\ ... & ... & ... & ... \\ 0 & 0 & ... & 1/S_p \end{pmatrix} $$ La matrice des données centrées et réduites $$ Z:Z_i^{(j)} = \frac{Y_i^{(j)}}{S_j} \\ S_j = \sqrt{Var(X^{(j)})} \\ S_j^2 = Var(X^{(j)})\\ = \sum_{i=1}^{n} p_i(X_i^{(j)} - \bar{X^{(j)}})^2\\ = \sum_{i=1}^n p_i(Y_i^{(j)})^2 \\ \boxed{Z = YD_{1/S}} $$ La matrice $R$ regroupant tous les coefficients de corrélation linéaire entre les p variables $$ R = \begin{pmatrix} 1 & ... & \rho_j^i \\ ... & 1 & ... \\ \rho_j^i & ... & 1 \end{pmatrix} $$ $$ \rho_{ij} = \frac{\text{cov}(X^{(i)},X^{(j)})}{S_iS_j} $$ $$\text{cov}(X^{(i)}, X^{(j)}) = \sum_{k=1}^n p_kY^{(i)}Y_k^{(j)}$$ $$ R = D_{1/S}VD_{1/S} \\ R = D_{1/S} \ ^tYDYD_{1/S} \\ R = \ ^tZDZ $$ # Confinement ![](https://i.imgur.com/C2c6ZJu.jpg) ![](https://i.imgur.com/KmdxuhG.jpg) ![](https://i.imgur.com/fFjDgT3.jpg) ![](https://i.imgur.com/l8oSaUw.jpg) ![](https://i.imgur.com/rQIJMGD.jpg) ![](https://i.imgur.com/a4nQmyj.jpg) ![](https://i.imgur.com/rqBLTZU.jpg) ![](https://i.imgur.com/2WSkdFy.jpg) ![](https://i.imgur.com/vlAbeS4.jpg) ![](https://i.imgur.com/ronsxxY.jpg) ![](https://i.imgur.com/wADRi0p.jpg) ![](https://i.imgur.com/xO2zBiL.jpg) ![](https://i.imgur.com/Gb1ybBA.jpg) ![](https://i.imgur.com/ab0xBsf.jpg) ![](https://i.imgur.com/HcPDXVG.jpg) ![](https://i.imgur.com/LeRSW7p.jpg) ![](https://i.imgur.com/2iGL5cX.jpg) ![](https://i.imgur.com/JwcNyyP.jpg) ![](https://i.imgur.com/vkc7OKL.jpg)