---
tags: Maths, TC, Regragi
---

# Analyse des données
## Plan du cours
**1. Description bidimensionnelle et mesure des liaisons entre X et Y**
- Loi conjointe(Loi du couple (X, Y))
- Lois marginales
- Lois conditionnelles
- Indépendance, Covariance(N(X,Y) et corrélation)
**2. Description multidimensionnelle**
- Tableau des donnees
- Matrice des poids
- Centre de gravité des nuages de points formé par les individus
-- les lignes sont les individus
-- les colonnes sont les variables
- Matrice des Var-Covariance
- Matrice de Corrélation
- Algo A.C.P (analyse composante principale)
- Projection des individus
## Description bidimensionnelle et mesure des liaisons entre X et Y
### Couple de variables aléatoires (X, Y) / Loi conjointe
Soient X et Y deux variables aléatoires discrètes définies sur un même espace probabilisé ($\Omega$, $C$, $P$) _(Univers, Tribu, Proba)_.
$X(\Omega) = {x_i / i\in I}$ valeurs de X
$Y(\Omega) = {y_j / j\in J}$ valeurs de Y
:::info
On appelle la loi du couple (X,Y), aussi appelée **loi conjointe**, l'ensemble des couples ($x_i$, $y_i$, $p_{i,j}$) où $x_i \in X(\Omega)$, $y_j \in Y(\Omega)$
$$p_{ij} = P((X = x_i)\cap(Y=y_j))$$
:::
*Remarque:* Si $I = [[1,r]]$ et $J = [[1,s]]$
$$
\begin{array}{c|ccccc}
{X\backslash Y} & {y_1} & {...} & {y_j} & {...} & {y_s} \\
\hline
{x_1} & {p_{1,1}} & {...} & {p_{1,j}} & {...} & {p_{1,s}} \\
{...} & {...} & {...} & {...} & {...} & {...} \\
{x_i} & {p_{i,1}} & {...} & {p_{i,j}} & {...} & {p_{i,s}} \\
{...} & {...} & {...} & {...} & {...} & {...} \\
{x_r} & {p_{r,1}} & {...} & {p_{r,j}} & {...} & {p_{r,s}} \\
\end{array}
$$
$$p_{ij} \geq 0 \\
\sum_{ij} p_{ij} = 1$$
### Lois marginales
:::info
Les variables X et Y sont appelées variables marginales du couple (X, Y)
$$ p_{i.} = P(X = x_i) = \sum_{j\in J} p_{ij}\\
p_{.j} = P(Y = y_j) = \sum_{i\in I} p_{ij}$$
:::
#### Exemple
$$
\begin{array}{c|cccc|c}
{X\backslash Y} & {1} & {2} & {3} & {4} & {p_i.} \\
\hline
{1} & {1/16} & {1/16} & {1/16} & {1/16} & {1/4} \\
{2} & {0} & {2/16} & {1/16} & {1/16} & {1/4} \\
{3} & {0} & {0} & {3/16} & {1/16} & {1/4} \\
{4} & {0} & {0} & {0} & {4/16} & {1/4} \\
\hline
{p_.j} & {1/16} & {3/16} & {5/16} & {7/16} & {1} \\
\end{array}
$$
$p_{i.}$ Loi marginale de X
$p_{.j}$ Loi marginale de Y
### Lois conditionnelles
:::info
La loi conditionnelle de $X=x_i$ sachant que $Y = y_j$
$$ P_{Y = y_j}(X=x_i) = \frac{p_{i,j}}{p_{.j}}$$
de même
$$ P_{X = x_j}(Y=y_j)= \frac{p_{i,j}}{p_{i.}}$$
:::
#### Exemple
On reprend l'exemple précédent.
$P_{Y = 3}(X=1) = \frac{p_{13}}{p_{.3}} = \frac{1/16}
{5/16} = 1/5$
| $x_i$ | 1 | 2 | 3 | 4 |
| ---------------- | --- | --- | --- | --- |
| $P_{Y=3}(X=x_0)$ | 1/5 | 1/5 | 3/5 | 0 |
:::info
X et Y sont deux variables indépendantes si et seulement
$$p_{ij} = P((X = x_i) \cap (Y = y_j)) = P(X = x_i).P(Y = y_j)\\
\Leftrightarrow P_{Y=y_i}(X=x_i) = P(X = x_i)$$
$$p_{ij} = p_{i.}p_{.j} \qquad \forall j \in J, \forall i \in I$$
:::
### Loi d'une fonction de deux variables X et Y
:::info
$g: \mathbb{R}^2 \rightarrow \mathbb{R}$ fonction définie sur l'ensemble des valeurs prises par $(X,Y)$.
$Z = g(X,Y)$
$g(x_i, y_j) = Z_k, \forall x_i \in X(\Omega), \forall y_j \in J(\Omega)$
$Z(\Omega) = \{Z_k / k \in K\}\quad K \subset \mathbb{N}$
$$(Z=Z_k) = \bigcup_{(i, j)\\
g(x_i, y_j) = Z_k} ((X=x_i)\cap(Y = y_j))\\
P(Z=Z_k) = \sum_{(i, j)\\
g(x_i, y_j) = Z_k} \\P((X = x_i)\cap(Y = y_j))$$
:::
#### Exemple
En particulier,
$$P(X + Y = Z) = \sum_{(x,y)\\
x+y = Z} P((X=x)\cap(Y=y))\\
P(X . Y = Z) = \sum_{(x,y)\\
xy = Z} P((X=x)\cap(Y=y))$$
$$g(X,Y) = X + Y\\
g(X,Y) = X . Y$$
### Exemple
| X\\Y | 1 | 2 | 3 | 4 |
|:---- | ---- | ---- | ---- |:---- |
| 1 | 1/16 | 1/16 | 1/16 | 1/16 |
| 2 | 0 | 1/8 | 1/16 | 1/16 |
| 3 | 0 | 0 | 3/16 | 1/16 |
| 4 | 0 | 0 | 0 | 0 |
:::spoiler Déterminer la loi de la somme S = X + Y
$P(S = 5) = P((X=1)\cap(Y=4)) + P((X=2)\cap(Y=3))\\
\qquad + P((X=3)\cap(Y=2)) + P((X=4)\cap(Y=1))$
| S | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
|:------------:| ---- | ---- | ---- | ---- | ---- | ---- |:---- |
| $P(S = s_i)$ | 1/16 | 1/16 | 3/16 | 2/16 | 4/16 | 1/16 | 4/16 |
Loi du produit: $\mathbb{P} = X.Y$
| $\mathbb{P}$ | 1 | 2 | 3 | 4 | 6 | 8 | 9 | 12 | 16 |
|:------------:| ---- | ---- | ---- | ---- | ---- |:---- |:----:|:----:| ---- |
| $P(S = s_i)$ | 1/16 | 1/16 | 1/16 | 3/16 | 1/16 | 1/16 | 3/16 | 1/16 | 4/16 |
:::
### Espérance de $Z = g(X,Y)$
:::info
$$E(Z) = \sum_{i\in I} \sum_{j\in J} g(x_i, y_j)P((X=xi_)\cap (Y=y_j))\\
E(g(X,Y)) = \sum_{i,j} g(x_i, y_j) p_{ij}$$
:::
*Remarque :* $E(X.Y) = \sum_{i, j} x_iy_jp_{i,j}$
*Remarque* Si X et Y 2 variables aléatoires indépendantes alors $E(X.Y) = E(X)E(Y)$
:::warning
:warning: Réciproque fausse
:::
### Exemple
:::spoiler Enoncé
| X\\Y | 0 | 1 | 2 | Loi de X |
| -------- | ----- | --- | --- | -------- |
| 0 | 1/20 | 1/4 | 0 | 3/10 |
| 1 | 17/60 | 1/4 | 1/6 | 7/10 |
| Loi de Y | 1/3 | 1/2 | 1/6 | 1 |
:::
:::spoiler Calcul d'espérance
Calculer l'espérance de $X.Y$
$$ E(X.Y) = \sum_{i = 0}^1 \sum_{j = 0}^2 i.jp_{ij} \\
\qquad = \frac{1}{4} + \frac{2}{6} = \frac{7}{12}$$
On a bien $E(X.Y) = E(X)E(Y)$
mais $((X=0)\cap(Y=2)) = 0$
$\quad \neq P(X=0).P(Y=2)$
:::
### Covariance de $(X,Y)$
:::info
On appelle covariance de $(X,Y)$
$$ cov(X,Y) = E(X,Y) - E(X)E(Y) $$
:::
:::info
On appelle coefficient de corrélation linéaire
$$ \rho(X,Y) = \frac{cov(X,Y)}{\sqrt{V(X)}\sqrt{V(Y)}}$$
:::
*Remarque* $\rho(X, Y) = \frac{<X-E(X), Y-E(Y)>}{\sigma_x . \sigma_y}$
$$ \sigma_X = \sqrt{V(X)} = ||X-E(X)||\\
\sigma_Y = \sqrt{V(Y)} = ||Y - E(Y)|| $$
$|\rho| \leq 1$
si $\rho = 1$ forte corrélation linéaire entre X et Y
si $\rho = 0 \Rightarrow$ pas de corrélation
### Exercice 1
Soit X une variable aléatoire tel que $Y=X^2$.
1. Donner la loi conjointe
2. Donner la loi marginale
3. Etudier l'indépendance
4. Calculer la covariance
:::spoiler 1. Réponse
$$
\begin{array}{c|ccc|c}
{X\backslash Y} & {0} & {1} & {4} & {p_{i}} \\
\hline
-2 & {0} & {0} & {1 / 6} & {1/6} \\
{-1} & {0} & {1/4} & {0} & {1/4} \\
{0} & {1 / 6} & {0} & {0} & {1/6} \\
{1} & {0} & {1 / 4} & {0} & {1/4} \\
{2} & {0} & {0} & {1/6} & {1/6}\\
\hline
{p_j} & {1/6} & {1/2} & {1/3}
\end{array}
$$
$P((X=x_i)\cap(Y=y_j)) = 0$ si $y_j \neq x_i^2$
$P((X=x_i)\cap(Y=(x_i)^2)) = P(X=x_i)$
:::
:::spoiler 2. Réponse
$P(Y=0) = 1/6$
$P(Y=1) = 1/2$
$P(Y=4) = 1/3$
:::
:::spoiler 3. Réponse
$P((X=0)\cap(Y=1))=0 \quad \neq \quad P(X=0)P(Y=1)=1/6*1/2=1/12$
Si X et Y sont indépendants alors $E(X.Y) = E(X)E(Y)$
:::
:::spoiler 4. Réponse
$cov(x,y) = E(XY) - E(X)E(Y)$
$E(X.Y) = \sum_{i,j} x_iy_jp_{ij}$
$E(X.Y) = -8/6-1/4+1/4+8/6=0$
$E(X) = \sum x_iP(X=x_i)$
$E(X) = 2/6 - 1/4 + 1/4 + 2/6$
:::
:::spoiler Tableau récapitulatif
Soit X une variable aléatoire.
Y = X²
| $X_i$ | -2 | -1 | 0 | 1 | 1 |
|:-----:|:---:|:---:|:---:|:---:|:---:|
| $p_i$ | 1/6 | 1/4 | 1/6 | 1/4 | 1/6 |
:::
### Exercice 2
Soit $a \in \mathbb{R}_+^*$, $X$ et $Y$ sont deux variables à valeurs dans $\mathbb{N}$
$$P((X=k) \cap (Y=j)) = \frac{a}{2^{k+1}(j!)} \quad \forall (k,j) \in \mathbb{N}^2$$
1. Déterminer a
2. Déterminer les lois marginales $P(X=k)$ et $P(X=j)$
3. $X$ et $Y$ sont-ils indépendants ?
4. Calculer la covariance $cov(X,Y)$
:::spoiler 1. Réponse
On a $\sum_{k,j}p_{kj} = 1$
$\sum_{k=0}^{+\infty}\sum_{j = 0}^{+\infty} \frac{a}{2^{k+1}j!}$
$\Leftrightarrow a \sum_{k=0}^{+\infty} \frac{1}{2^{k+1}} \sum_{j = 0}^{+\infty} \frac{1}{j!} = 1$
$\Leftrightarrow ae\frac{1}{2}\sum_0^{+\infty} \frac{1}{2}^k = 1$
$\Leftrightarrow \frac{ae}{2}2 = 1$
$\Leftrightarrow a=e^{-1}$
*Rappel:*
$$e^x = \sum_{j=0}^{+\infty} \frac{X^j}{j!} \quad \forall x \in \mathbb{R}\\
\sum_{0} a^k = \frac{1}{1-a}, \quad |a| < 1$$
:::
:::spoiler 2. Réponse
*Rappel :* Loi de X
$$P(X=k) = \sum_0^{+\infty} P((X=k) \cap (Y = j))\\
= \sum_{j=0}^{+\infty} \frac{e^{-1}}{2^{k+1}j!}\\
= \frac{e^{-1}{2^{k+1}}}e = \frac{1}{2^{k+1}} \forall k \in \mathbb{N}$$
Loi de Y
$$ P(Y=j) = \sum_{k=0}^{+\infty} P((X=k)\cap(Y=j)) $$
$$P(Y=j) = \sum_{k = 0}^{+\infty} \frac{e^{-1}}{j!2^{k+1}} \\
= \frac{e^{-1}}{j!} \frac{1}{2} \sum_{k=0}^{+\infty}\frac{1}{2^k}\\
= \frac{e^{-1}}{j!}\frac{1}{2^k}(\frac{1}{1-1/2})$$
:::
:::spoiler 3. Réponse
$$ P(X=k).P(Y=j)=\frac{1}{2^{k+1}}.\frac{e^{-1}}{j!} = P((X=k)\cap(Y=j) \\
\forall (k,j) \in \mathbb{N}^2$$
Donc X et Y sont indépendantes
:::
:::spoiler 4. Réponse
$indépendance \Rightarrow E(X,Y)=E(X).E(Y)\\
\Rightarrow cov(X,Y) = 0$
:::
### Exercice 3
On considère $n$ boîtes numérotées de 1 à $n$.
La boîte numéro $k$ contient $k$ boules numérotées de 1 à $k$.
On choisit une boîte au hasard puis une boule dans cette boîte.
On nomme X le numéro de la boîte et Y le numéro de la boule.
1. Donner la loi conjointe de $X$, $Y$
2. Calculer $P(X=Y)$
3. Déterminer la loi de $Y$ et calculer l'espérance $E(Y)$
:::spoiler 1. Réponse
$$X(\Omega) = Y(\Omega) = [[1,n]]$$
$$ P((X=i)\cap(Y=j)) = P_{X=i}(Y=j)P(X=i)$$
++1er cas++
si $j > i \quad P((X=i)\cap(Y=j)) = 0$
++2e cas++
si $j \leq i \quad P((X=i)\cap(Y=j)) = \frac{1}{i} \frac{1}{n}$
:::
:::spoiler 2. Réponse
$$(X=Y) = \bigcup_{i = 1}^n \underbrace{((X=i) \cap (Y=i))}_{\text{événements incompatibles}}$$
$$P(X=Y) = \sum_{i=1}^n P((X=i) \cap (Y=i))\\
= \sum_{i = 1}^{n} \frac{1}{i.n}\\
=\frac{1}{n} \sum_{i= 1}^{n} \frac{1}{i}$$
:::
:::spoiler 3. Réponse
$$P(Y=j) = \sum_{i=1}^{n} P((X=i)\cap(Y=j)) \quad \forall j \in Y(\Omega) \\
= \sum_{i \geq j}^n \frac{1}{i.n} \\
= \frac{1}{n}\sum_{i \geq j}^{n} \frac{1}{j}$$
$$E(Y)= \sum_{j = 1}^{n} jP(Y=j)\\
= \sum_{j=1}^n j\frac{1}{n} \sum_{i=j}^{n} \frac{1}{i}\\
= \frac{1}{n}\sum_{i = 1}^{n} \frac{1}{i} \sum_{j = 1}^{i} j\\
= \frac{1}{n} \sum_{i = 1}^{n} \frac{1}{i} \frac{i(i+1)}{2} \\
= \frac{1}{2n} \sum _{i=1}^{n} (i+1)\\
= \frac{1}{2n} (\frac{n(n+1)}{2} + n)\\
= \frac{1}{2}(\frac{n+1}{2} + 1)\\
= \frac{n+3}{4}$$
:::
### Exercice 4
Une urne contient une boule blanche et une boule noire.
On y prélève une boule, chaque boule ayant la même probabilité d'être tirée. On note sa couleur et on la remet dans l'urne avec $c$ boules de la même couleur.
On répète cette expérience $n$ fois ($n \geq 2$).
$$
X_i = \left\{
\begin{array}{ll}
1 & \mbox{si on obtient une boule blanche au ième tirage} \\
0 & \mbox{sinon}
\end{array}
\right.
$$
$$Z_p = \sum_{i = 1}^{p} X_i \quad 2 \leq p \leq n$$
($Z_p$ = nombre de boules blanches obtenues parmi les $p$ premiers tirages)
1. Déterminer la loi du couple (X1, X2)
2. Déterminer la loi de $Z_2$
3. Déterminer Zp(Omega) et calculer $P_{Z_p = k}(X_{p+1} = 1)$
4. Montrer que $P(X_{p+1} = 1) = \frac{1+c E(Z_p)}{2+pc}$
5. Montrer que $\forall p \in [[1, n]] \quad P(X_p = 1) = P(X_p = 0) = \frac{1}{2}$
:::spoiler 1. Réponse
$$P(X_1 = 1) = 1/2 = P(X_1 = 0)$$
$X_1$ suit $B(1/2)$ Bernouilli
$$P((X_1 = i) \cap (X_2 = j)) = P_{X_1 = i}(X_2=j)P(X_1 = i) \\
(i,j) \in [[0,1]]^2$$
++1er cas :++
$$i \neq j \quad P((X_1 = i) \cap (X_2 = j))= \frac{1}{(2 + c)}\frac{1}{2}$$
++2e cas :++
$$i = j \quad P((X_1 = i)\cap(X_2 = i)) = \frac{1+c}{2+c}1/2$$
$$
\begin{array}{c|cc|c}
{X1 \backslash X2} & {0} & {1} & {\text{Loi de}\ X_1} \\
\hline
{0} & \frac{1+c}{2(2+c)} & {\frac{1}{2(c+2)}} & {1/2} \\
{1} & {\frac{1}{2(c+2)}} & {\frac{1+c}{2(2(2+c))}} & {1/2} \\
\hline
{\text{Loi de}\ X2} & {1/2} & {1/2} & {1}
\end{array}
$$
$X_2$ suit $B(1/2)$
:::
:::spoiler 2. Réponse
$$ Z_2 = \sum_{i=1}^2 X_i \\
Z_2(\Omega) = [[0,2]] $$
++Loi de $Z_2$ :++
$$ P(Z_2 = 0) = P((X_1=0)\cap(X_2=0)) \\
P(Z_2 = 0) = \frac{1+c}{2(2+c)}$$
$$P(Z_2 = 1) = P((X_1 = 0) \cap (X_2 = 1)) + P((X_1 = 1) \cap (X_2 = 0)) \\
P(Z_2 = 1) = \frac{1}{2+c}
$$
$$P(Z_2 = 2) = P((X_1 = 1)\cap(X_2 = 1)) \\
P(Z_2 = 2) = \frac{1+c}{2(2+c)}
$$
:::
:::spoiler 3. Réponse
$Z_p(\Omega) = [[0,p]]$
$Z_p = k$ = On a tiré $k$ boules blanches au cours des $p$ premiers tirages (et donc $p-k$ boules noires)
$X_{p+1} = 1$ = On tire une boule blanche au prochain tirage
Avant de passer au tirage $p+1$, l'urne contient au total: $kc$ boules blanches $+ (p-k)c$ boules noires + les 2 premières $= 2 + pc$ dont $(1+kc)$ boules blanches.
$$\Rightarrow P_{Z_p = k}(X_{p+1} = 1) = \frac{1+kc}{2+pc}$$
:::
:::spoiler 4. Réponse
$$(X_{p+1} = \bigcup_{k=0}^p (\underbrace{(X_{p+1} = 1) \cap (Z_p = k)}_{\text{incompatibles}}) \\
P(X_{p+1}) = \sum_{k=0}^p P((X_{p+1})\cap(Z_p = k)) \\
= \sum_{k=0}^p P_{Z_p = k}(X_{p+1} = k)P(Z_p = k) \\
= \sum_{k = 0}^p (\frac{1 + kc}{2+pc} P(Z_p = k) \\
= \frac{1}{2+pc}(\underbrace{\sum_{k=0}^p P(Z_p = k)}_{=1} + c\underbrace{\sum_{k=0}^p kP(Z_p = k))}_{E(Z_p)} \\
= \frac{1 + c E(Z_p)}{2+pc}$$
:::
:::spoiler 5. Réponse
Soit $R(p)$ la propriété $P(X_p = 1) = P(X_p = 0) = \frac{1}{2}$.
**Raisonnement par récurence**
++Hypothèse :++ $R(1)$ et $R(2)$ vraies (1ere question).
Supposons $R(k)$ vérifiée pour $k = 1, 2, ... p$
$$Z_p = \sum_{i=1}^p X_i \\
E(Z_p) = \sum_{i = 1}^p E(X_i)\\
E(Z_p) = \sum 1/2 = p/2\\
P(X_{p+1} = 1) = \frac{1 + c E(Z_p)}{2+pc}\\
= \frac{1+c p/2}{2+pc} = 1/2\\
\text{et}\ P(X_{p+1} = 0) = 1- 1/2 = 1/2 \\
X_{p+1}\ \hookrightarrow B(1/2)$$
:::
### Exercice 5
Une urne contient des boules noires en proportions $p$ ($0 < p < 1$) et des boules blanches en proportions $q=1-p$ On effectue une suite de tirages d'une boule avec remise.
1. On note N le rang aléatoire d'apparition de la 1ere boule noire et B celui de la 1ere boule blanche
1. Déterminer les lois de $N$ et $B$ ainsi que $E(N)$, $E(B)$, $V(N)$, $V(B)$
2. $N$ et $B$ sont-elles indépendantes ?
2. On note X la longueur de la première suite de boules de la même couleur et Y celle de la 2e.
1. Déterminer la loi conjointe de (X, Y)
2. Loi de X, espérance ; mq $E(X) \geq 2$
3. Loi de Y, espérance et variance
4. Calculer $P(X = Y)$
5. Loi de X+Y pour $p = 1/2$
**Question 1**
:::spoiler 1. Réponse
$N$ est la variable aléatoire du temps d'attente de la 1ere réalisation "obtenir une bouler noire".
$B$ est la variable aléatoire du temps d'attente de la 1ere réalisation "obtenir une bouler blanche".
$$N(\Omega) = [[1, +\infty[[ \qquad B(\Omega) = [[1, +\infty[[ \\
N \hookrightarrow G(p) \quad \text{(Loi géométrique)} $$
$$P(N=k) = (1-p)^{k-1}p = q^{k-1}p \\
P(B=k) = (1-q)^{k-1}q = p^{k-1}q $$
$$E(N) = \frac{1}{p} \qquad V(N) = \frac{q}{p^2} \\
E(B) = \frac{1}{q} \qquad V(B) = \frac{p}{q^2} $$
$$N \hookrightarrow G(p)\ \text{et}\ B \hookrightarrow G(q)$$
:::
:::spoiler 2. Réponse
$$P(\underbrace{(N=1)\cap(B=1)}_{\oslash}) = P(\oslash) = 0\\
P(N=1).P(B=1) = pq \neq 0\\
\Rightarrow\ \text{N et B ne sont pas indépendants}$$
:::
\
**Question 2**
:::spoiler Exemple
$(X=1)\cap(Y=2)$ est réalisé par
$(N_1 \cap B_2 \cap B_3 \cap N_4)$ ou $(B_1 \cap N_2 \cap N_3 \cap B_4)$
$X(\Omega)=Y(\Omega)=\mathbb{N}^*$
:::
:::spoiler 1. Réponse
$$(X=i)\cap(Y=j) : \quad ((\bigcap_{k=1}^i N_k) \cap (\bigcap_{k =i}^{j+i+1} B_k)) \cup ((\bigcap_{k=1}
^i B_k) \cap (\bigcap_{k =i}^{j+i+1} N_k)) \\
\Rightarrow P((X=i)\cap(Y=j)) = p^{i+1}q^j + q^{i+1}p^j \qquad \forall (i,j) \in (\mathbb{N}^*)^2
$$
:::
:::spoiler 2. Réponse
++Loi de X++
$$ P(X=i)= \sum_{j=1}^{+\infty} p(^{i+1}q^j+q^{i+1}p^j) \\
P(X=i) = p^{i+1}q (\frac{1}{1-q}) + q^{i+1}p\frac{1}{1-p} \\
\boxed{P(X=i) = p^iq + q^ip} $$
++Espérance++
$$ E(X) = \sum_{n=1}^{+\infty} nP(X=n) \\
E(X) = \sum_{n = 1}^{+\infty} n(qp^n + pq^n) \\
E(X) = \sum_{n = 1}^{+\infty} nqp^n + \sum_{n=1}^{+\infty} npq^n \\
E(X) = pq\sum_{n = 1}^{+\infty} np^{n-1} + pq\sum_{n=1}^{+\infty} nq^{n-1} \\
E(X) = pq\frac{1}{(1-p)^2} + pq\frac{1}{(1-q)^2} \\
E(X) = \frac{p}{q} + \frac{q}{p}\\
E(X) = \frac{p^2 + q^2}{pq}
$$
++Montrer que $E(X) \geq 2$++
$$
(p-q)^2 = p^2 + q^2 -2pq \geq 0 \\
\Rightarrow p^2 + q^2 \geq 2pq \\
\Rightarrow \frac{p^2 + q^2}{pq} \geq 2 \\
\Rightarrow E(X) \geq 2 \\
$$
:::
:::spoiler 3. Réponse
$$
\forall j \in \mathbb{N} \\
P(Y=j) = \sum_{i=1}^{+\infty} P((X=i)\cap(Y=j)) \\
P(Y = j) = q^j \sum_{i = 1}^{+\infty} p^{i+1} + p^j\sum_{i=1}^{+\infty} q^{i+1} \\
P(Y=j) = p^2q^j\sum_{i=1}^{+\infty} p^{i+1} + q^2p^j\sum q^{i+1} \\
P(Y=j) = p^2q^j \frac{1}{(1-p)} + p^jq^2 \frac{1}{(1-q)} \\
Ok jusqu'ici pour l'instant \\
P(Y=j) = p^2q^{j-1} + q^2p^{j-1} \quad \forall j \in \mathbb{N}^+ \\
E(Y) = \sum_{n=1}^{+\infty} n p^2q^{n-1} + \sum_{n=1}^{+\infty} nq^2p^{n-1} \\
E(Y) = p^2\sum_{n=1}^{+\infty} nq^{n-1} + q^2\sum_{n=1}^{+\infty} np^{n-1} \\
E(Y) = p^2\frac{1}{(1-q)^2} + q^2\frac{1}{(1-p)^2} = \boxed{2}\\
V(Y) = E(Y^2) - E^2(Y)
E(Y^2) = \sum_{n=1}^{+\infty} n^2 P(Y=n) \\
E(Y^2) = \sum_{n=1}^{+\infty} n^2p^2q^{n-1} + \sum{n=1}{+\infty} n^2q^2p^{n-1} \\
E(Y^2) = p^2\sum{n=1}{+\infty} n^2q^{n-1} + q^2\sum_{n=1}^{+\infty}
n^2p^{n-1}
$$
On sait que $\sum_{n=1}^{+\infty} np^n = \frac{p}{(1-p)^2}$
En dérivant par rapport à p:
$$
\sum_{n=1}^{+\infty} n^2p^{n-1} = \frac{(1-p)^2+2p(1-p)}{(1-p)^4} \\
= \frac{1-p + 2p}{(1-p)^3} = \frac{1+p}{(1-p)^3}
$$
:::
:::spoiler 4. Réponse
$$
(X=Y) = \bigcup_{n=1}^{+\infty} (\underbrace{(X=n)\cap(Y=n)}_{\text{événements incompatibles}}) \\
P(X=Y)= \sum_{n=1}^{+\infty} P((X=n)\cap(Y=n)) \\
P(X=Y)= \sum_{n=1}^{+\infty} (p^{n+1}q^n + q^{n+1}p^n) \\
P(X=Y)= p^2q\frac{1}{1-pq} + q^2p\frac{1}{1-pq} \\
P(X=Y)= \frac{p^2q + q^2p}{1-pq} \\
P(X=Y)= \frac{pq(p+q)}{1-pq} \\
\boxed{P(X=Y)= \frac{pq}{1-pq}}
$$
:::
:::spoiler 5. Réponse
$$
p = q = 1/2 \\
P((X=i)\cap(Y=j)) = (\frac{1}{2})^{i+j} \\
X(\Omega) = \mathbb{N}^* = Y(\Omega) \\
(X+Y)(\Omega) = [[2,+\infty[[ \\
\forall k \in (X+Y)\Omega \\
P(X+Y=k) = \sum_{(i, j) / i+j=k} P((X=i)\cap(Y=j)) \\
P(X+Y=k) = \sum_{i=1}^{k-1} P((X=i)\cap(Y=k-i)) \\
P(X+Y=k) = \sum_{i=1}^{k-1}(\frac{1}{2})^k \\
P(X+Y=k) = (k-1)(1/2)^k
$$
:::
## Analyse en composantes principales (ACP)
NB: Les notes du prof sont dispo à partir d'ici dans la partie #Confinement. Et heureusement, parce que la qualité de notre prise de note dégringole très vite.
### Les données et leurs caractéristiques
#### Tableau des données
Les observations de $p$ varaibles.
$X^{(1}), X^{(2)}, \dots, X^{(p)}$ sur $n$ individus, sont rassemblés en une matrice à n ligne X.
$$
D =
\begin{pmatrix}
p_1 & 0 & ... & 0 \\
0 & p_2 & ... & 0 \\
... & ... & ... & ... \\
0 & 0 & ... & p_n \\
\end{pmatrix}
$$
$X_i^{(j)}$ est la valeur prise par la variable $X^{j}$ sur le ième individu.
$$
X^{(j)} = (X_1^{(j)}\ \dots\ X_n^{(j)})\\
t_{pi} = (X^{(1)}, X^{(2)}, \dots, X^{(p)} \ \text{ième individu}
$$
#### Matrices des poids
On associe à chaque individu un poids $p_i \geq 0$ (proba de choisir l'individu, $n \geq i$).
$$\sum_{i=0}^n p_i = 1 $$
$$
D = \begin{array}{c}
e_1 \\
e_2
\end{array}
\begin{pmatrix}
p_1 & 0 & ... & 0 \\
0 & p_2 & ... & 0 \\
... & ... & ... & ... \\
0 & 0 & ... & p_n \\
\end{pmatrix}
$$
Si $p_i = \frac{1}{n} \quad \forall i$
$$ \boxed{D = \frac{1}{n}I_n} $$
#### Centre de gravité
Le vecteur $g$ des moyennes arithmétiques de chaque variable
$$
t_g = (\bar{X^{(1)}}, \bar{X^{(2)}}, \dots, \bar{X^{(p)}} \\
\boxed{\bar{X^{(j)}}= \sum_{i = 1}^n p_iX_i^{(j)} \quad \forall j = 1-p}
$$
g: barycentre du nuage formé par les $n$ individus.
Le tableau des données centrées :
$Y$ telle que $Y_i^{(j)}=X_i^{(j)} - \bar{X^{(j)}}$
#### Matrice de variance-covariance et matrice de corrélation
$$ \boxed{\ ^tV = YDY} $$
V est la matrice de variance-covariance
On note $D_{1/S}$ la matrice
$$
D_{1/5} =
\begin{pmatrix}
1/S_1 & 0 & ... & 0 \\
0 & 1/S_2 & ... & 0 \\
... & ... & ... & ... \\
0 & 0 & ... & 1/S_p
\end{pmatrix}
$$
La matrice des données centrées et réduites
$$
Z:Z_i^{(j)} = \frac{Y_i^{(j)}}{S_j} \\
S_j = \sqrt{Var(X^{(j)})} \\
S_j^2 = Var(X^{(j)})\\
= \sum_{i=1}^{n} p_i(X_i^{(j)} - \bar{X^{(j)}})^2\\
= \sum_{i=1}^n p_i(Y_i^{(j)})^2 \\
\boxed{Z = YD_{1/S}}
$$
La matrice $R$ regroupant tous les coefficients de corrélation linéaire entre les p variables
$$
R =
\begin{pmatrix}
1 & ... & \rho_j^i \\
... & 1 & ... \\
\rho_j^i & ... & 1
\end{pmatrix}
$$
$$
\rho_{ij} = \frac{\text{cov}(X^{(i)},X^{(j)})}{S_iS_j}
$$
$$\text{cov}(X^{(i)}, X^{(j)}) = \sum_{k=1}^n p_kY^{(i)}Y_k^{(j)}$$
$$
R = D_{1/S}VD_{1/S} \\
R = D_{1/S} \ ^tYDYD_{1/S} \\
R = \ ^tZDZ
$$
# Confinement


















