**Correction 1** 1. Loi conjointe. $P((X = i) \cap (Y = j)) = 0$ si $i \ne j^2$ $P((X = i) \cap (Y = i^2)) = P(X = i)$ si $j = i^2$ | X\Y | 0 | 1 | 4 | $P_{i.}$ | | --- | --- | --- | --- | --- | |-2 | 0 | 0 | 1/6 | |-1 | 0 | 1/4 | 0 | |0 | 1/6 | 0 | 0 | |1 | 0 | 1/4 | 0 | |2 | 0 | 0 | 1/6 | |$P_{.y}$ | 1/6 | 1/2 | 1/3 | 2. Loi marginale de $Y$. Cf dernier tableau. 3. Indépendance. $P([X=-2] \cap [Y=4]) = \frac{1}{6}$ $P(X = -2) = \frac{1}{6}$ $P(Y = 4) = \frac{1}{3}$ $P(X = -2) * P(Y = 4) = \frac{1}{18} \ne \frac{1}{6} = P([X = -2] \cap [Y = 4])$. $X$ et $Y$ ne sont pas indépendantes. 4. Covariance. $Cov(X,Y) = E(XY) - E(X)E(Y)$. $E(X) = -2 * \frac{1}{6} + -1 * \frac{1}{4} * 0 * \frac{1}{6} + 1 * \frac{1}{4} + 2 * \frac{1}{6} = - \frac{2}{6} - \frac{1}{4} + \frac{1}{4} + \frac{2}{6} = 0$ $E(Y) = 0 * \frac{1}{6} + 1 * \frac{1}{2} + 4 * \frac{1}{3} = 1/2 + \frac{4}{3} = \frac{11}{6}$ $E(XY) = - \frac{8}{6} - \frac{1}{4} + \frac{1}{4} + \frac{8}{6} = 0$ $\boxed{Cov(X,Y) = 0 - 0 * \frac{11}{6} = 0}$ --- ## Correction 2 ### 1. Détermination de $a$. On a : $\sum_\limits{k,j}^{\infty} P_{kj} = 1\\ \iff \sum_\limits{k}^{\ínfty} \sum_j^{\infty} [\frac{a}{2^{k+1}*(j!)}] = 1\\ \iff a \sum_\limits{k} \frac{1}{2^{k+1}} \sum_\limits{j}^{\infty} \frac{1}{j!} = 1\\ \iff a e \frac{1}{2} \sum_\limits{k=0}^{\infty} \frac{1}{2^k} = 1\\ \iff \frac{ae}{2} * 2 = 1\\ \iff a = e^{-1}$ **Rappels** - $e^x = \sum_\limits{j=0}^{\infty} \frac{x^j}{j!}$, $\forall x \in \mathbb{R}$. - $\sum a^k = \frac{1}{1 - a}$ ### 2. Lois marginales. **Loi de $X$ :** $P(X=k) = \sum_\limits{j=0}^{\infty} P[(X=k) \cap (Y=j)]\\ = \sum \frac{e^{-1}}{2^{k+1} j!}\\ = \frac{e^{-1}}{2^{k+1}} \sum \frac{1}{j!}\\ = \frac{1}{2^{k+1}}$ **Loi de $Y$ :** $P(Y=j) =\sum_\limits{k=0}^{\infty} P[(X=k) \cap (Y=j)]\\ = \sum \frac{e^{-1}}{2^{k+1} j!}\\ = \frac{e^{-1}}{j!} \sum \frac{1}{2^k}\\ = \frac{e^{-1}}{j!} \frac{1}{2} (\frac{1}{1-\frac{1}{2}})\\ = \frac{e^{-1}}{j!}$ ### 3. Indépendance $P(X=k)P(Y=j) = \frac{1}{2^{k+1}}\frac{e^{-1}}{j!} = P[(X=k) \cap (Y=j)]$. D'où l'indépendance. ### 4. Covariance $X$ et $Y$ sont indépendantes, la covariance est donc nulle. --- ## Correction 3 ### 1. Loi conjointe. $X(\Omega) = Y(\Omega) = [[1, n]]$. Soient $i,j \in [[1,n]]$. $P_{ij} = P[(X=i) \cap (Y=j)] = P(Y=j | X=i) * P(X=i)$ - Si $j > i$, $P_{ij} = 0$. - Si $j \leq i$, $P_{ij} = \frac{1}{i}\frac{1}{n}$ ### 2. $P(X = Y).$ $(X = Y) = \bigcup_\limits{i=1}^{n} [(X=i) \cap (Y = i)]$ Événements incompatibles deux à deux, on peut donc sommer. $P(X=y) = \sum_\limits{i=1}^{n} [(X=i) \cap (Y = i)]\\ = \sum \frac{1}{in}\\ = \frac{1}{n} \sum_\limits{i=1}^n \frac{1}{i}$ ### 3. Loi marginale et espérance de $Y$. **Loi marginale** $P(X = j) = \sum_\limits{i} P[(X=i) \cap (Y=j)]\\ = \sum_\limits{i\geq j}^n \frac{1}{in}\\ = \frac{1}{n} \sum_\limits{i \geq j}^n \frac{1}{i}$ **Espérance** $E(Y)\\ = \sum j P(Y=j)\\ = \sum_\limits{j=1}^n j \frac{1}{n} \sum_\limits{i=j}^n \frac{1}{i}\\ = \frac{1}{n} \sum_\limits{i=1}^n \frac{1}{i} \sum_\limits{j=1}^i j\\ = \frac{1}{n} \sum_\limits{i=1}^n \frac{1}{i} \frac{i(i+1)}{2}\\ = \frac{1}{2n} \sum_\limits{i=1}^n (i+1)\\ = \frac{1}{2n}(\frac{n(n+1)}{2} + n)\\ = \frac{1}{2} (\frac{n+1}{2} + 1)\\ = \frac{n+3}{4}$ --- ## Correction 4 ### 1. Loi de $(X_1, X_2)$. $X_1(\Omega) = X_2(\Omega) = \{ 0, 1 \}$ $(X_1 = 0) \cap (X_2 = 0)$ : la première boule est noire puis la seconde boule est noire $(X_1 = 0) \cap (X_2 = 1)$ : la première boule est noire puis la seconde boule est blanche $(X_1 = 1) \cap (X_2 = 0)$ : la première boule est blanche puis la seconde boule est noire $(X_1 = 1) \cap (X_2 = 1)$ : la première boule est blanche puis la seconde boule est blanche |$X_1$ \ $X_2$| 0 | 1 | Loi de $X_1$ | | --- | --- | --- | --- | |0 | $\frac{c+1}{2(c+2)}$ | $\frac{1}{2(c+2)}$ | $\frac{1}{2}$ | |1 | $\frac{1}{2(c+2)}$ | $\frac{c+1}{2(c+2)}$ | $\frac{1}{2}$ | | Loi de $X_2$ | $\frac{1}{2}$ | $\frac{1}{2}$ | 1 | ### Loi de $Z_2$. On a $Z_2 = \sum_\limits{i=1}^2 X_i = X_1 + X_2$ et $Z_2(\Omega) = \{ 0, 1, 2 \}$. $P(Z_2 = 0) = P[(X_1=0) \cap (X_2=0)] = \frac{c+1}{2(c+2)}$ $P(Z_2 = 1) = P[(X_1=1) \cap (X_2=0)] + P[(X_1=0) \cap (X_2=1)] = \frac{1}{2(c+2)} + \frac{c+1}{2(c+2)} = \frac{1}{2}$ $P(Z_2 = 2) = P[(X_1=1) \cap (X_2=1)] = \frac{c+1}{2(c+2)}$ ### $Z_p(\Omega)$ et $P(X_{p+1} = 1 | Z_p=k)$ $Z_p(\Omega) = [[0,p]]$ $(X_{p+1} = 1| Z_p=k)$ : Sachant que $k$ boules blanches sont sorties, on obtient une boule blanche. Il y a $kc + 1$ boules blanches dans l'urne. Il y a $(p-k)c + 1$ boules noires dans l'urne. Il y a $pc + 2$ boules au total dans l'urne. $P(X_{p+1} = 1| Z_p=k) = \frac{kc+1}{kc+1 + ((p-k)c + 1)} = \frac{kc+1}{pc+2}$ ### $P(X_{p+1}=1)$ $\begin{align} P(X_{p+1}=1) & = \sum_\limits{k=0}^p P((X_{p+1}=1) \cap (Z_p=k))\\ & = \sum_\limits{k=0}^p P(X_{p+1} = 1 | Z_p = k)P(Z_p=k)\\ & = \sum_\limits{k=0}^p \frac{kc+1}{pc+2}P(Z_p=k)\\ & = \frac{1}{pc+2} \sum (kc+1)P(Z_p=k)\\ & = \frac{1}{pc+2}(\sum kc P(Z_p=k) + \sum P(Z_p = k))\\ & = \frac{1}{pc+2}(cE(Z_p) + \sum P(Z_p = k))\\ & = \frac{1}{pc+2}(cE(Z_p) + 1)\\ & = \frac{cE(Z_p) + 1}{pc+2} \end{align}$ ### $P(X_p=1) = P(X_p=0) = \frac{1}{2}$ Par récurrence. Correction : récurrence forte ! Puis utiliser le résultat précédent. Posons $p = 1$. Nous avons expliqué à la question $1$ que $P(X_1=1) = P(X_1=0) = \frac{1}{2}$. Soit $p\in [[1,n]]$. Supposons que $P(X_p=1) = P(X_p=0) = \frac{1}{2}$. Montrons alors que $P(X_{p+1}=1) = P(X_{p+1}=0) = \frac{1}{2}$. $\begin{align} P(X_{p+1} = 1) & = P((X_{p+1}=1) \cap (X_p=0)) + P((X_{p+1}=1 \cap (X_p=0))\\ & = P(X_{p+1}=1 | X_p=1)P(X_p=1) + P(X_{p+1}=1 | X_p=0)P(X_p=0)\\ & = \\ \end{align}$ --- ## Correction 5 #### Lois Loi de $N$ : $P(B=k) = q^{k-1}p$. Équivalent pour $B$. Espérance de $N$ : $E(B) = \frac{1}{p}$. Variance de $N$ : $V(B) = \frac{q}{p^2}$. #### Indépendance Contre-exemple avec $N = B = 1$. #### Loi de $(X,Y)$ $P((X=i) \cap (Y=j)) = p^{i+1}q^j + q^{i+1}p^j$. ??? #### Loi de $X$ Loi : somme des intersections, utiliser le résultat précédent. $P(X=i) = p^{i+1}q\frac{1}{1-q} + q^{i+1}p\frac{1}{1-q} = p^iq + q^ip$ Espérance : appliquer dérivée de somme géométrique. $E(X) = ... = pq\frac{1}{(1-p)^2} + pq\frac{1}{(1-q)^2} = \frac{p}{q} + \frac{q}{p}$ #### $E(X) \geq 2$ Partir de $(p-q)^2 \geq 0$. #### Loi de $Y$ Même raisonnement que pour $X$ : $P(Y=j) = p^2q^{j-1} + q^2p^{j-1}$. Espérance : idem, $E(Y) = 2$. Variance : Koenig. #### $P(X=Y)$ $(X=Y) = \bigcup_\limits{n=1}^{+\infty}((X=n) \cap (Y=n))$ événements incompatibles. $P(X=Y) = \frac{pq}{1-pq}$. #### Loi de $X+Y$, avec $p = \frac{1}{2}$ $(X+Y)(\Omega) = [[2,+\infty[[$. $(X+Y = k) = \bigcup_\limits{i+j=k}((X=i) \cap (Y=j)) = ((X=i) \cap (Y=k-i))$. $P(X+Y=k) = (k-1)(\frac{1}{2})^k$. --- # Correction 6 #### Moyenne des variables $\forall j$, $\overline{X^{(j)}} = \sum_\limits{i} p_i X_i^{(j)}$ #### Centre de gravité $g = (X_i^{(j)})$ #### Matrice $Y$ $\forall (i,j)$, $y_{ij} = X_i^{(j)} - \overline{X^{(j)}}$ #### Matrice de covariance $V$ $V = Y^TDY = \frac{1}{6}Y^TY$ #### Diagonalisation $MV = V$ Métrique de l'espace des individus : $M = I_3$. **Polynôme caractéristique** $P_V(\lambda) = \text{det}(V - \lambda I_3)$, dont on déduit les racines, qui sont les valeurs propres de $V$. Indice : développer par rapport à une ligne/colonne peut aider. #### Pourcentage d'inertie $i$ème axe : $\frac{\lambda_i}{\sum_\limits{j}\lambda_j}$ Inertie portée par le plan principal : $\frac{\lambda_1 + \lambda_2}{\sum_\limits{lambda_i}}$ Comme $M = I_3$, alors facteurs principaux sont les facteurs principaux. #### Facteurs principaux Vecteurs propres associés aux valeurs propres maximales. Détermination d'un vecteur propre $u$ : $u \in E_{48} = \text{Ker}(V - 48I_3)$ i.e. $(V - 48 I_3)u = \vec{0}$. #### Composantes principales $c^{(i)} = Yu^{(i)}$, avec $i \in \{1,2\}$. #### Coefficients de corrélation $\rho(X^{(j)}, c^{(i)})$, $j \leq 3$, $i \leq 2$ Utilisation de la formule : $\rho(X,Y) = \frac{Cov(X,Y)}{\sigma_X \sigma_Y}$ - $Cov(X,Y) = <X - E(X),Y - E(Y)>$ produit scalaire usuel ($Cov(X^{(1)}, c^{(1)}) = <Y^{(1)}, c^{(1)} - \overline{c^{(1)}}>$) - $\sigma_{X^{(1)}} = \sqrt{V_{11}}$ et $\sigma_{c^{(1)}} = ||c^{(1)}||$ Finir par un tableau de corrélations