**Correction 1**
1. Loi conjointe.
$P((X = i) \cap (Y = j)) = 0$ si $i \ne j^2$
$P((X = i) \cap (Y = i^2)) = P(X = i)$ si $j = i^2$
| X\Y | 0 | 1 | 4 | $P_{i.}$ |
| --- | --- | --- | --- | --- |
|-2 | 0 | 0 | 1/6 |
|-1 | 0 | 1/4 | 0 |
|0 | 1/6 | 0 | 0 |
|1 | 0 | 1/4 | 0 |
|2 | 0 | 0 | 1/6 |
|$P_{.y}$ | 1/6 | 1/2 | 1/3 |
2. Loi marginale de $Y$.
Cf dernier tableau.
3. Indépendance.
$P([X=-2] \cap [Y=4]) = \frac{1}{6}$
$P(X = -2) = \frac{1}{6}$
$P(Y = 4) = \frac{1}{3}$
$P(X = -2) * P(Y = 4) = \frac{1}{18} \ne \frac{1}{6} = P([X = -2] \cap [Y = 4])$.
$X$ et $Y$ ne sont pas indépendantes.
4. Covariance.
$Cov(X,Y) = E(XY) - E(X)E(Y)$.
$E(X) = -2 * \frac{1}{6} + -1 * \frac{1}{4} * 0 * \frac{1}{6} + 1 * \frac{1}{4} + 2 * \frac{1}{6} = - \frac{2}{6} - \frac{1}{4} + \frac{1}{4} + \frac{2}{6} = 0$
$E(Y) = 0 * \frac{1}{6} + 1 * \frac{1}{2} + 4 * \frac{1}{3} = 1/2 + \frac{4}{3} = \frac{11}{6}$
$E(XY) = - \frac{8}{6} - \frac{1}{4} + \frac{1}{4} + \frac{8}{6} = 0$
$\boxed{Cov(X,Y) = 0 - 0 * \frac{11}{6} = 0}$
---
## Correction 2
### 1. Détermination de $a$.
On a :
$\sum_\limits{k,j}^{\infty} P_{kj} = 1\\
\iff \sum_\limits{k}^{\ínfty} \sum_j^{\infty} [\frac{a}{2^{k+1}*(j!)}] = 1\\
\iff a \sum_\limits{k} \frac{1}{2^{k+1}} \sum_\limits{j}^{\infty} \frac{1}{j!} = 1\\
\iff a e \frac{1}{2} \sum_\limits{k=0}^{\infty} \frac{1}{2^k} = 1\\
\iff \frac{ae}{2} * 2 = 1\\
\iff a = e^{-1}$
**Rappels**
- $e^x = \sum_\limits{j=0}^{\infty} \frac{x^j}{j!}$, $\forall x \in \mathbb{R}$.
- $\sum a^k = \frac{1}{1 - a}$
### 2. Lois marginales.
**Loi de $X$ :**
$P(X=k) = \sum_\limits{j=0}^{\infty} P[(X=k) \cap (Y=j)]\\
= \sum \frac{e^{-1}}{2^{k+1} j!}\\
= \frac{e^{-1}}{2^{k+1}} \sum \frac{1}{j!}\\
= \frac{1}{2^{k+1}}$
**Loi de $Y$ :**
$P(Y=j) =\sum_\limits{k=0}^{\infty} P[(X=k) \cap (Y=j)]\\
= \sum \frac{e^{-1}}{2^{k+1} j!}\\
= \frac{e^{-1}}{j!} \sum \frac{1}{2^k}\\
= \frac{e^{-1}}{j!} \frac{1}{2} (\frac{1}{1-\frac{1}{2}})\\
= \frac{e^{-1}}{j!}$
### 3. Indépendance
$P(X=k)P(Y=j) = \frac{1}{2^{k+1}}\frac{e^{-1}}{j!} = P[(X=k) \cap (Y=j)]$.
D'où l'indépendance.
### 4. Covariance
$X$ et $Y$ sont indépendantes, la covariance est donc nulle.
---
## Correction 3
### 1. Loi conjointe.
$X(\Omega) = Y(\Omega) = [[1, n]]$. Soient $i,j \in [[1,n]]$.
$P_{ij} = P[(X=i) \cap (Y=j)] = P(Y=j | X=i) * P(X=i)$
- Si $j > i$, $P_{ij} = 0$.
- Si $j \leq i$, $P_{ij} = \frac{1}{i}\frac{1}{n}$
### 2. $P(X = Y).$
$(X = Y) = \bigcup_\limits{i=1}^{n} [(X=i) \cap (Y = i)]$
Événements incompatibles deux à deux, on peut donc sommer.
$P(X=y) = \sum_\limits{i=1}^{n} [(X=i) \cap (Y = i)]\\
= \sum \frac{1}{in}\\
= \frac{1}{n} \sum_\limits{i=1}^n \frac{1}{i}$
### 3. Loi marginale et espérance de $Y$.
**Loi marginale**
$P(X = j) = \sum_\limits{i} P[(X=i) \cap (Y=j)]\\
= \sum_\limits{i\geq j}^n \frac{1}{in}\\
= \frac{1}{n} \sum_\limits{i \geq j}^n \frac{1}{i}$
**Espérance**
$E(Y)\\
= \sum j P(Y=j)\\
= \sum_\limits{j=1}^n j \frac{1}{n} \sum_\limits{i=j}^n \frac{1}{i}\\
= \frac{1}{n} \sum_\limits{i=1}^n \frac{1}{i} \sum_\limits{j=1}^i j\\
= \frac{1}{n} \sum_\limits{i=1}^n \frac{1}{i} \frac{i(i+1)}{2}\\
= \frac{1}{2n} \sum_\limits{i=1}^n (i+1)\\
= \frac{1}{2n}(\frac{n(n+1)}{2} + n)\\
= \frac{1}{2} (\frac{n+1}{2} + 1)\\
= \frac{n+3}{4}$
---
## Correction 4
### 1. Loi de $(X_1, X_2)$.
$X_1(\Omega) = X_2(\Omega) = \{ 0, 1 \}$
$(X_1 = 0) \cap (X_2 = 0)$ : la première boule est noire puis la seconde boule est noire
$(X_1 = 0) \cap (X_2 = 1)$ : la première boule est noire puis la seconde boule est blanche
$(X_1 = 1) \cap (X_2 = 0)$ : la première boule est blanche puis la seconde boule est noire
$(X_1 = 1) \cap (X_2 = 1)$ : la première boule est blanche puis la seconde boule est blanche
|$X_1$ \ $X_2$| 0 | 1 | Loi de $X_1$ |
| --- | --- | --- | --- |
|0 | $\frac{c+1}{2(c+2)}$ | $\frac{1}{2(c+2)}$ | $\frac{1}{2}$ |
|1 | $\frac{1}{2(c+2)}$ | $\frac{c+1}{2(c+2)}$ | $\frac{1}{2}$ |
| Loi de $X_2$ | $\frac{1}{2}$ | $\frac{1}{2}$ | 1 |
### Loi de $Z_2$.
On a $Z_2 = \sum_\limits{i=1}^2 X_i = X_1 + X_2$ et $Z_2(\Omega) = \{ 0, 1, 2 \}$.
$P(Z_2 = 0) = P[(X_1=0) \cap (X_2=0)] = \frac{c+1}{2(c+2)}$
$P(Z_2 = 1) = P[(X_1=1) \cap (X_2=0)] + P[(X_1=0) \cap (X_2=1)] = \frac{1}{2(c+2)} + \frac{c+1}{2(c+2)} = \frac{1}{2}$
$P(Z_2 = 2) = P[(X_1=1) \cap (X_2=1)] = \frac{c+1}{2(c+2)}$
### $Z_p(\Omega)$ et $P(X_{p+1} = 1 | Z_p=k)$
$Z_p(\Omega) = [[0,p]]$
$(X_{p+1} = 1| Z_p=k)$ : Sachant que $k$ boules blanches sont sorties, on obtient une boule blanche.
Il y a $kc + 1$ boules blanches dans l'urne.
Il y a $(p-k)c + 1$ boules noires dans l'urne.
Il y a $pc + 2$ boules au total dans l'urne.
$P(X_{p+1} = 1| Z_p=k) = \frac{kc+1}{kc+1 + ((p-k)c + 1)} = \frac{kc+1}{pc+2}$
### $P(X_{p+1}=1)$
$\begin{align}
P(X_{p+1}=1) & = \sum_\limits{k=0}^p P((X_{p+1}=1) \cap (Z_p=k))\\
& = \sum_\limits{k=0}^p P(X_{p+1} = 1 | Z_p = k)P(Z_p=k)\\
& = \sum_\limits{k=0}^p \frac{kc+1}{pc+2}P(Z_p=k)\\
& = \frac{1}{pc+2} \sum (kc+1)P(Z_p=k)\\
& = \frac{1}{pc+2}(\sum kc P(Z_p=k) + \sum P(Z_p = k))\\
& = \frac{1}{pc+2}(cE(Z_p) + \sum P(Z_p = k))\\
& = \frac{1}{pc+2}(cE(Z_p) + 1)\\
& = \frac{cE(Z_p) + 1}{pc+2}
\end{align}$
### $P(X_p=1) = P(X_p=0) = \frac{1}{2}$
Par récurrence. Correction : récurrence forte ! Puis utiliser le résultat précédent.
Posons $p = 1$. Nous avons expliqué à la question $1$ que $P(X_1=1) = P(X_1=0) = \frac{1}{2}$.
Soit $p\in [[1,n]]$. Supposons que $P(X_p=1) = P(X_p=0) = \frac{1}{2}$.
Montrons alors que $P(X_{p+1}=1) = P(X_{p+1}=0) = \frac{1}{2}$.
$\begin{align}
P(X_{p+1} = 1) & = P((X_{p+1}=1) \cap (X_p=0)) + P((X_{p+1}=1 \cap (X_p=0))\\
& = P(X_{p+1}=1 | X_p=1)P(X_p=1) + P(X_{p+1}=1 | X_p=0)P(X_p=0)\\
& = \\
\end{align}$
---
## Correction 5
#### Lois
Loi de $N$ : $P(B=k) = q^{k-1}p$. Équivalent pour $B$.
Espérance de $N$ : $E(B) = \frac{1}{p}$.
Variance de $N$ : $V(B) = \frac{q}{p^2}$.
#### Indépendance
Contre-exemple avec $N = B = 1$.
#### Loi de $(X,Y)$
$P((X=i) \cap (Y=j)) = p^{i+1}q^j + q^{i+1}p^j$. ???
#### Loi de $X$
Loi : somme des intersections, utiliser le résultat précédent.
$P(X=i) = p^{i+1}q\frac{1}{1-q} + q^{i+1}p\frac{1}{1-q} = p^iq + q^ip$
Espérance : appliquer dérivée de somme géométrique.
$E(X) = ... = pq\frac{1}{(1-p)^2} + pq\frac{1}{(1-q)^2} = \frac{p}{q} + \frac{q}{p}$
#### $E(X) \geq 2$
Partir de $(p-q)^2 \geq 0$.
#### Loi de $Y$
Même raisonnement que pour $X$ : $P(Y=j) = p^2q^{j-1} + q^2p^{j-1}$.
Espérance : idem, $E(Y) = 2$.
Variance : Koenig.
#### $P(X=Y)$
$(X=Y) = \bigcup_\limits{n=1}^{+\infty}((X=n) \cap (Y=n))$ événements incompatibles.
$P(X=Y) = \frac{pq}{1-pq}$.
#### Loi de $X+Y$, avec $p = \frac{1}{2}$
$(X+Y)(\Omega) = [[2,+\infty[[$.
$(X+Y = k) = \bigcup_\limits{i+j=k}((X=i) \cap (Y=j)) = ((X=i) \cap (Y=k-i))$.
$P(X+Y=k) = (k-1)(\frac{1}{2})^k$.
---
# Correction 6
#### Moyenne des variables
$\forall j$, $\overline{X^{(j)}} = \sum_\limits{i} p_i X_i^{(j)}$
#### Centre de gravité
$g = (X_i^{(j)})$
#### Matrice $Y$
$\forall (i,j)$, $y_{ij} = X_i^{(j)} - \overline{X^{(j)}}$
#### Matrice de covariance $V$
$V = Y^TDY = \frac{1}{6}Y^TY$
#### Diagonalisation $MV = V$
Métrique de l'espace des individus : $M = I_3$.
**Polynôme caractéristique**
$P_V(\lambda) = \text{det}(V - \lambda I_3)$, dont on déduit les racines, qui
sont les valeurs propres de $V$.
Indice : développer par rapport à une ligne/colonne peut aider.
#### Pourcentage d'inertie
$i$ème axe : $\frac{\lambda_i}{\sum_\limits{j}\lambda_j}$
Inertie portée par le plan principal :
$\frac{\lambda_1 + \lambda_2}{\sum_\limits{lambda_i}}$
Comme $M = I_3$, alors facteurs principaux sont les facteurs principaux.
#### Facteurs principaux
Vecteurs propres associés aux valeurs propres maximales.
Détermination d'un vecteur propre $u$ : $u \in E_{48} = \text{Ker}(V - 48I_3)$
i.e. $(V - 48 I_3)u = \vec{0}$.
#### Composantes principales
$c^{(i)} = Yu^{(i)}$, avec $i \in \{1,2\}$.
#### Coefficients de corrélation
$\rho(X^{(j)}, c^{(i)})$, $j \leq 3$, $i \leq 2$
Utilisation de la formule : $\rho(X,Y) = \frac{Cov(X,Y)}{\sigma_X \sigma_Y}$
- $Cov(X,Y) = <X - E(X),Y - E(Y)>$ produit scalaire usuel
($Cov(X^{(1)}, c^{(1)}) = <Y^{(1)}, c^{(1)} - \overline{c^{(1)}}>$)
- $\sigma_{X^{(1)}} = \sqrt{V_{11}}$ et $\sigma_{c^{(1)}} = ||c^{(1)}||$
Finir par un tableau de corrélations