# Analyse des données
---------------------------------
19 Feb 2020
--------------------------------
## I- Description bidimensionelles et mesure des liaisons entre entre X et Y
## II- Description multidimensionnelles
- Tableau de donnees
- Matrice des poids
- Centre de gravite du nuage des points forme par les individus
- Matrice de variables, covariance
- Project des ing (obj: minimiser la perte d'infos en reduisant les dimensions de notre espace)
# I- Description bidimensionelles
## 1) Couple de variables aléatoires (X, Y)
Soient $X$ et $Y$ deux variables aléatoires discètes définies par un même espace probabilisé ($\Omega, C, P$)
### Définition
On appelle la loi (_conjointe_) de (X, Y) l'ensemble des couples :
$$((X_i, Y_j), P_{ij})$$
- $(X_i, Y_i) \in X_\Omega \times Y_\Omega$
- $P_{ij} = P((X=X_i)\cap(Y=Y_j))$
Si $I = [1, r]$ et $J = [1, s]$ :
| $_X$ \ $^Y$ | $y_1$ ... | ... $y_j$ ... | ... $y_s$ |
| -------- | -------- | -------- | -- |
| $x_1$ | $P_{11}$ | $P_{1i}$ | $P_{1s}$ |
| ... |
| $x_i$ | $P_{i1}$ | $\textbf P_{ij}$ | $P_{is}$ |
| ... |
| $x_r$ | $P_{r1}$ | $P_{rj}$ | $P_{rs}$ |
### Remarques
- $P_{ij} \geq 0$
- $\sum P_{ij} = 1$
## 2) Lois marginales
### Definition
Les variables X et Y sont appelees variables marginales du couple (X, Y).
$$P_{i.} = P(X = x_i) = \sum\nolimits_{j \in J}P_{ij}\\
P_{.j} = P(Y = y_j) = \sum\nolimits_{i \in I}P_{ij}$$
### Exemple
| $_X$ \ $^Y$ | 1 | 2 | 3 | 4 | $P_{i.}$ _(Loi marginale de X)_ |
| ----- | ---- | ------ | ---- | ----| ----- |
| 1 | 1/16 | 1/16 | 1/16 | 1/16 | 1/4 |
| 2 | 0 | 2/16 | 1/16 | 1/16 | 1/4 |
| 3 | 0 | 0 | 3/16 | 1/16 | 1/4 |
| 4 | 0 | 0 | 0 | 4/16 | 1/4 |
|$P_{.j}$_(Loi marginale de Y_)| 1/16 | 3/16 | 5/16 | 7/16 | 1 |
On déduit les lois marginales de la loi conjointe (sommes sur lignes, colonnes).
## 3) Lois conditionnelles
### Definition
La loi conditionnelle de la variable $X = x_i$ sachant que $Y = y_j$ :
$$P(X=x_i | Y=y_j) = \frac{P_{ij}}{P_{.j}}$$
De meme :
$$P(Y=y_j | X=x_i) = \frac{P_{ij}}{P_{i.}}$$
### Exemple
$P(X = 1 | Y = 3) = P_{13} / P_{.3}
= \frac{1}{16} / \frac{5}{16}
= \frac{1}{5}$
|$X_i$ | 1 | 2 | 3 | 4 |
| --------- | --- | --- | --- | - |
|$P(X=x_i/Y=3)$| $\frac{1}{5}$ | $\frac{1}{5}$ | $\frac{3}{5}$ | 0 |
### Définition
X et Y sont deux variables indépendantes ssi:
$P_{ij} = P((X = x_i) \cap (Y = y_j)) = P(X = x_i) * P(Y = y_j)$
$$\iff P_{ij} = P_{i.} * P_{.j} \text{ } (\forall i \in I, \forall j \in J)$$
### 4) Fonction de deux variables X et Y
Soit $g: \mathbb{R}^2 \longrightarrow \mathbb{R}$ fonction définie sur l'ensemble des valeurs prises par (X,Y).
Posons $Z = g(X, Y)$.
Alors on a $g(x_{i}, y_{j}) = z_k$, pour tout $(x_i, y_i) \in X(\Omega) \times Y(\Omega)$.
$g(x_i, y_j) = z_k \leftarrow$ On prend tous les couples $(x_i, y_j)$ qui réalisent la valeur $z_k$ prise par $Z$.
$Z(\Omega)$ = $\{ Z_{k} | k \in K\}$ avec $K \subset \mathbb{N}$.
**Événement :** $\boxed{(Z = z_{k}) = \bigcup\limits_{[(i,j) | g(x_i,y_j) = z_k]} ((X=x_i) \cap (Y = y_j))}$
**Probabilité :** $\boxed{P(Z = z_k) = \sum\limits_{[(i,j) | g(x_i,y_j) = z_k]}P((X = x_i) \cap (Y = y_j))}$
**Exemple pour $g : (X,Y) \mapsto Z = X + Y$**
- $P(X+Y = Z) = \sum\limits_{[(x, y) | x + y = Z]}(P(X=x) \cap (Y=y))$
**Exemple pour $g : (X,Y) \mapsto Z = X.Y$**
- $P(X.Y = Z) = \sum\limits_{[(x, y)|xy = Z]}(P(X=x) \cap (Y=y))$
#### Exemple
| $_X$ \ $^Y$ | 1 |2 | 3 | 4 |
| --- | -- | -- | -- | -- |
| 1 | $^1/_{16}$ | $^1/_{16}$ | $^1/_{16}$ | $^1/_{16}$ |
| 2 | 0 | $^1/_8$ | $^1/_{16}$ | $^1/_{16}$ |
| 3 | 0 | 0 | $^3/_{16}$ | $^1/_{16}$ |
| 4 | 0 | 0 | 0 | $^4/_{16}$ |
##### Déterminer la loi de probabilite de la somme $S=X+Y$
##### Proba d'obtenir 5?
$P(S=5) = P((x=1) \cap (y=4)) \\
\qquad + P((x=2) \cap (y=3)) \\
\qquad + P((X=3) \cap (y=2)) \\
\qquad + P((X=4) \cap (y=1)) \\
\qquad = 1/8$
$\textbf{Loi de somme}$: $S = X + Y$
|S | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
| ----- | ---- | ---- | ---- | ---- | ---- | ---- | ---- |
|$P(S=s_i)$| 1/16 | 1/16 | 1/16 | 1/16 | 1/16 | 1/16 | 1/16 |
$\textbf{Loi de produit}$: $P = X*Y$
| P | 1 | 2 | 3 | 4 | 6 | 8 | 9 | 12 | 16 |
| -------- | -------- | -------- | -------- | -------- | -------- | -------- | -------- | -------- | -------- |
| $P(P = p_{i})$ | 1/16 | 1/16 |1/16 |3/16 |1/16 |1/16 |3/16 |1/16 |4/16
## Espérance de $Z = g(X, Y)$
### Définition
$$E(Z) = \sum\limits_{i \in I}\sum\limits_{j \in J}g(x_{i}, y_{i})P((X=x_{i}) \cap (Y=y_{j}))$$
$$E(g(X,Y)) = \sum\limits_{i, j}g(x_{i}, y_{j})P_{ij}$$
**Exemple** Espérance du produit
- $E(X.Y) = \sum\limits_{i, j}x_{i}y_{j}P_{ij}$
**Remarque** Si X et Y, deux variables indépendantes, alors $E(X*Y) = E(X)*E(Y)$.
Condition nécessaire mais pas suffisante, voir contre exemple suivant.
#### Exemple:
$_X$ \ $^Y$ | 0 | 1| 2 | $\textit{Loi marginale de X}$
---------------- | -----| ---- | ----| -----
0 | $^1/_{20}$ | $^1/_4$ | 0 | $^3/_{10}$
1 | $^{17}/_{60}$ | $^1/_4$ | $^1/_6$ | $^7/_{10}$
$\textit{Loi marginale de Y}$| $^1/_3$ | $^1/_2$ | $^1/_6$ | 1
$E(X.Y) = \sum\limits_{i=0}^{1}$$\sum\limits_{j=0}^{2} (i * j * P_{ij}) = \frac{1}{4} + 2 * \frac{1}{6} = \frac{7}{12}$
| $^X$ \ $_Y$ | 0 | 1 | 2 | Loi de X |
| ------- | ----- | ----- | ----- | -------- |
|0 | 1/20 | 1/4 | 0 | 3/10 |
|1 | 17/60 | 1/4 | 1/6 | 7/10 |
|Loi de Y | 1/3 | 1/2 | 1/6 | 1 |
$E(X) = \sum\nolimits_{i}x_i * P(X = x_i) = 7/10$
$E(Y) = \sum\nolimits_{j}y_j * P(Y = y_j) = 1/2 + 1/3 = 5/6$
On a bien $E(XY) = E(X)E(Y)$.
Mais $P((X=0) \cap (Y=2)) = 0$
$\ne P(x=0) * P(y=2) = \frac{3}{60} = \frac{1}{20}$
=> X et Y ne sont pas indépendants
### Covariance de (X, Y)
**Covariance**
$$Cov(X, Y) = E(XY) - E(X)E(Y)$$
**Coefficient de correlation lineaire**)
$$\rho(X, Y) = \frac{Cov(X, Y)}{\sqrt{V(X)} . \sqrt{V(Y)}}$$
**Remarque**
$\rho(X, Y)$ = $\frac{< X-E(X), Y - E(Y)>}{\sigma_x.\sigma_y}$
- $\sigma_x = \sqrt{V(X)} = || X - E(X) ||$
- $\sigma_y = \sqrt{V(Y)} = || Y - E(Y) ||$
Or $<x,y> = ||x||*||y||\cos(\theta)$, avec $\theta$ l'angle orienté entre $x$ et $y$.
D'où $\rho(X,Y) = \cos((X - E(X), Y - E(Y)))$
On a donc $\mid \rho | \leq 1$.
- Si $\rho = 1$, l’angle vaut 0[$2\pi$], corrélation
- Si $\rho = -1$, l’angle vaut $\pi$[$2\pi$], corrélation opposée
- Si $\rho = 0$, l’angle vaut $\frac{\pi}{2}[2\pi]$ , non corrélation
**Exercice 1**
Soit $X$ une variable aléatoire, de loi marginale :
| $X_i$ | -2 | -1 | 0 | 1 | 2 |
| --- | --- | --- | --- | --- | --- |
| $P_i$ | 1/6 | 1/4 | 1/6 | 1/4 | 1/6 |
Soit $Y = X * X$.
1) Donner la loi conjointe de $(X,Y)$.
2) Donner la marginale de $Y$.
3) Étudier l'indépendance de $X$ et $Y$.
4) Calculer la covariance de $(X,Y)$.
1)
$P((X = x_i) \cap (Y = y_j)) = 0$ si $y_j \ne x_i^2 $
| X\Y | 0 | 1 | 4 | $P_{i.}$ |
| --- | --- | --- | --- | --- |
|-2 | 0 | 0 | 1/6 |
|-1 | 0 | 1/4 | 0 |
|0 | 1/6 | 0 | 0 |
|1 | 0 | 1/4 | 0 |
|2 | 0 | 0 | 1/6 |
|$P_{.j}$ | 1/6 | 1/2 | 1/3 |
2) $P(Y=0) = 1/6$
$P(Y=1) = 1/2$
$P(Y=4) = 1/3$
3) $P((X=0) \cap (Y = 1)) = 0 \ne P(X= 0) * P(Y = 1) = 1/12$ X, Y non independant.
Si X et Y independants => E(X.Y) = E(X)E(Y)
---------------------------------
26 Feb 2020
--------------------------------
4) $Cov(X, Y) = E(X * Y) - E(x)E(Y)$
| X\Y | 0 | 1 | 4 | Loi de X |
| ---- | ------ | ------ | ------ | --- |
| -2 | (0)0 | (-2) 0 | (38)1/6| 1/6 |
| -1 | (0)0 | (-1)1/4| (-4)0 | 1/4 |
| 0 | (0)1/6 | (0)0 | (0)0 | 1/6 |
| 1 | (0)0 | (1)1/4 | (4)0 | 1/4 |
| 2 | (0)0 | (6)0 | (8)1/6 | 1/6 |
Loi y | 1/6 | 1/2 | 1/3 | 1|
$E(X*Y) = \sum\limits_{\forall (i,j)}(x_i*y_j*P_{ij})$
$\iff E(X*Y) = -\frac{8}{6} - \frac{1}{4} + \frac{1}{4} + \frac{8}{6} = 0$
$E(X) = \sum (x_i*P(X=x_i))$
$\iff FIXME$
#### Ex2.
$a \in \mathbb{R}^*_+ | X, Y \in \mathbb{N}$
$P ((X=k) \cap (Y=j)) = \frac{a}{2^{k+1}*(j!)}$ $(\forall(k, j) \in \mathbb{N}^2)$
- 1. Determiner a
- 2. Lois marginales
- 3. Independance?
- 4. Cov(X, Y)
1) On a $\sum\limits_{k,j \in \mathbb{N}}P_{kj} = 1$
$\iff \sum\limits_{k=0}^{+\infty}\sum\limits_{j=0}^{+\infty}\frac{a}{2^{k+1}*(j!)} = 1$
$\iff a\sum\limits_{k=0}^{+\infty}\frac{1}{2^{k+1}}\sum\limits_{j=0}^{+\infty}\frac{1}{j!)} = 1$
$\iff a \exp \frac{1}{2} \sum\limits_0^{+\infty}(\frac{1}{2^k}) = 1$
$\iff \frac{a \exp}{2} * 2 = 1$
$\iff a = \exp ^{-1}$
CQFD
**Rappel**
$e^x = \sum\limits_{j=0}^{+\infty}\frac{X^j}{j!}$
$\forall X \in \mathbb{R}$
$\sum\limits_{0}^{+\infty} a^h = \frac{1}{1-a}, |a| < 1$
2. Lois Marginales
Lois de X: $P(X = k) = \sum\limits_{j=0}^{+\infty}P((X = h) \cap (Y = j))$
$= \sum\limits_{j=0}^{+\infty} \frac{e^{-1}}{2^{k+1}j!}$
$= \frac{e^{-1}}{2^{k+1}}*\sum\limits_{j=0}^{+\infty}\frac{1}{j!}$
$P(X=h) = \frac{e^{-1}}{2^{k+1}} * e = \frac{1}{2^{k+1}} \forall k \in \mathbb{N}$
Loi de Y: $P(Y=j) = \sum\limits_{k=0}^{+\infty}P((X=k) \cap (Y=j))$
$P(Y=j) = \sum\limits_{k=0}^{+\infty}\frac{e^{-1}}{2^{k+1}j!}$
$= \frac{e^{-1}}{j!}\frac{1}{2}\sum\limits_{k=0}^{+\infty}\frac{1}{2^k}$
$= \frac{e^{-1}}{j!}\frac{1}{2}(\frac{1}{1-\frac{1}{2}})$
$= \frac{e^{-1}}{j!} \forall j \in \mathbb{N}$
3. Independance
$P(X=h).P(Y=j)=\frac{1}{2^{k+1}} . \frac{e^{-1}}{j!} = P ((X{=h) \cap (Y=j))}))$
$\forall (k,j) \in \mathbb{N}^2$
Donc X et Y sont indépendantes.
4. Les variables sont indépendantes donc
$E(X*Y) = E(X)*E(Y) \iff Cov(X,Y) = 0$
#### Ex3.
On considère n boites numérotées de 1 à $n$.
La boîte numero $k$ contient $k$ boules numérotées de 1 à $k$.
On choisit une boite au hasard, puis une boule dans cette boîte
1) Donner la loi conjointe de $X$, $Y$:
* $X$, numéro de la boîte
* $Y$, numéro de la boule
\
$X(\Omega) = Y(\Omega) = [[1,n]]$
$P((X=i) \cap (Y=j)) = P(Y=j|X=i)*P(X=i)$ (Loi conditionnelle)
* 1er cas: si $j \gt i$
$P((X=i) \cap (Y=j)) = 0$
* 2e cas: si $j \le i$
$P((X=i) \cap (Y=j)) = \frac{1}{i} * \frac{1}{n}$
2) Calculer $P(X=Y)$
On peut réexprimer le pb sous la forme:
$\bigcup\limits_{i=1}^n((X=i) \cap (Y=i))$ evenements incompatibles
$\begin{align}
P(X=Y) &= \sum\limits_{i=1}^nP((X=i) \cap (Y=i) \\
&= \sum\limits_{i=1}^n\frac{1}{i*n} \\
&=\frac{1}{n}\sum\limits_{i=1}^n\frac{1}{i}\end{align}$
3) Determiner la loi de $Y$ et calculer $E(X)$
$\begin{align}
P(Y=j)_{\forall j \in Y(\Omega)} &= \sum\limits_{i=1}^{n}P((X=i) \cap (Y=j)) \\
&= \sum\limits_{i \ge j}{n} \frac{1}{i*n} \\
&= \frac{1}{n}\sum\limits_{i \ge j}^{n}\frac{1}{i}\end{align}$
$\begin{align}
E(Y) &= \sum\limits_{j=1}^{n}(j*P(Y=j)) \\
&= \sum\limits_{j=1}^{n}\frac{1}{n}\sum\limits_{i=j}^{n}\frac{1}{i} \\
&= \frac{1}{n} \sum\limits_{i=1}^n\frac{1}{i}\sum\limits_{j=1}^nj \\
&= \frac{1}{n} \sum\limits_{i=1}^n\frac{1}{i}\frac{i(i+1)}{2} \\
&= \frac{1}{2n} \sum\limits_{i=1}^n(i+1)\end{align}$ \\
$\begin{align}
E(Y) &= \frac{1}{2^n} (\frac{n(n+1)}{2} + n) \\
&=\frac{1}{2}(\frac{n+1}{2} + 1) \\
&=\frac{n+3}{4}\end{align}$
$\underline{Ex4}$
Une arme contient une boule blanche et une boule noire, on y prélève une boule (chaque boule ayant la mm probabilité d'être tirée).
On note sa couleur et on la remet dans l'urne avec $c$ boules de la même couleur.
On répète cette expérience $n$ fois ($n \ge 2$)
Soit $X_i = \{^{1 \text{ si on obtient une boule blanche au n-eme tirage}}_{0\text{ sinon}}$
$Z_p = \sum\limits_{i=1}^{p}X_i$ avec $(2 \le p \le n)$
1) Determiner la loi de couple $(X_1, X_2)$
2) Déterminer la loi de $Z_2$
3) Déterminer la probabilté $Z_p(\Omega)$ et calculer la proba de $P(X_{p+1}=1 | Z_p = k)$
4) Monter que $P(X_{p+1} = 1) = \frac{1+CE(Z_p)}{2+pC}$
5) Montrer que $\forall p \in [[1, n]]$, $P(X_p = 1) = P(X_p = 0) = \frac{1}{2}$
---------------------------
04 Mars 2020
-----------------
1) $P(X_1 = 1) = \frac{1}{2} = P(X_1 = 0)$
$X_1 \rightarrow \mathbb{B}(\frac{1}{2}) Bernouilli \\
P\big((X_1 = i) \cap (X_2 = j)\big) = P(X_2 = j \mid X_1=i)P(X_1=i) \\
(i,j) \in [[0, 1]]. \\
\underline{1^{er} cas}: i \neq j \\
\quad \frac{1}{2+c}\frac{1}{2} \\
\underline{2^e cas}: i = j \\
\quad P\big((X_1=i) \cap (X_2=i)\big) = (\frac{1+C}{2+C})*1/2$
| $_{X_1} \ ^{X_2}$ | 0 | 1 | Loi $X_1$ |
| ------- | -------- | -------- | -- |
| $0$ | $\frac{1+c}{2(2+c)}$ | $\frac{1}{2(c+2)}$ | $\frac{1}{2}$ |
| $1$ | $\frac{1}{2(c+2)}$ | $\frac{1+c}{2(2+c)}$ | $\frac{1}{2}$ |
| Loi de $X_2$ | $\frac{1}{2}$ | $\frac{1}{2}$ | $1$ |
2) $Z_2 = \sum\limits_{i=1}^2X_i \mid Z_2(\Omega) = [[0,2]]$
$\underline{\text{Loi de }Z_2}$
$\begin{align}
P(Z_2 = 0) &= P\big((X_1 = 0) \cap (X_2 = 0)\big) \\
&= \frac{1+c}{2(2+c)}
\end{align}$
$\begin{align}
P(Z_2 = 2) &= P\big((X_1 = 1) \cap (X_2 = 1)\big) \\
&= \frac{1+c}{2(2+c)}
\end{align}$
3) $Z_p = \sum\limits_{i=1}^{p}X_i \mid Z_p(\Omega) = [[0, p]]$
$P(X_{p+1} = 1 \mid Z_p = k) \\
\left( Z_p = k \right) \iff \text{Au cours des }p\text{ premiers tirages, on a obtenu }k\text{ boules blanches et }(p-k)\text{ boules noires}$
Avant de passer au $(p+1)$ ieme tirage l'urne contient au total: $kc + (p - k)c + 2 = 2 + pc$
dont $(1+hc)$ boules blanches.
${\boxed{P(X_{p+1} = 1 \mid Z_p = k) = \frac{1+kc}{2+pc}}}$
4) $(X_{p+1}=1) = \bigcup\limits_{k=0}^p \big((X_{p+1} = 1 \cap (Z_p = k)\big)$ evenements incompatibles
$P(_{p+1} =1) = \sum\limits_{k=0}^PP\big((X_{p+1} = 1)\cap (Z_p = k)\big)$
$P(X_{p+1} = 1) = \sum\limits_{k=0}^PP(X_{p+1} = 1 \mid Z_{p} = k) * P(Z_p=k) \\
= \sum\limits_{k=0}^P(\frac{1+kc}{2+pc})P(Z_p=k)$
$P(X_{p+1} = 1) = \frac{1}{2+pc}\big(\sum\limits_{k=0}^pP(Z_p=k) + c\sum\limits_{k=0}^pkP(Z_p=k)\big)$
$P(X_{p+1} = 1) = \frac{1+cE(Z_p)}{2+pc}$
5) Montrons que $P(X_p = 1) = P(X_p=0) = \frac{1}{2}$
Soit $R(p)$ cette propriété.
__<u>Raisonnement par récurrence</u>__
$R(1)$ et $R(2)$ vraies (cf. $1^e$ question). Supposons $R(k)$ vérifée pour $k = 1,2, ..., p$
$Z_p = \sum\limits_{i=1}^pX_i$ et $E(Z_p) = \sum\limits_{i=1}^pE(X_i) = \sum\limits_{i=1}^p\frac{1}{2} = \boxed{\frac{p}{2}}$
$\begin{align}
P(X_{p+1} = 1) &= \frac{1+ cE(Z_p)}{2+pc} \\
&= \frac{1+cP/2}{2+pc} = \boxed{\frac{1}{2}} \end{align}$
et $P(X_{p+1} = 0) = 1 - \frac{1}{2}$
$X_{p+1} \rightarrow \mathbb{B}\frac{1}{2}$
#### Ex 5
Une urne contient des boules noires en proportions $(0 \lt p \lt 1)$ et des boules blanches en proprtions $q = 1 -p$. On y effectue une suite de tirages d'une boule avec remise.
1) on note $N$ le rang aleatoire d'apparition de la $1^e$ boule noire et $B$ celui de la $1^e$ boule blanche
a) Déterminer les lois de $N$ et $B$ ainsi que $E(N), E(B), V(N) \text{ et } V(B)$.
b) $N$ et $B$ sont-elles independantes ?
2) On note $X$ la longueur de la $1^e$ suite de boules de la même couleur et $Y$ celle de la $2^e$ suite de boules de la même couleur
a) Déterminer la loi conjointe de $(X, Y)$.
b) Loi de $X$ ?, $E(X)$ et $E(X) \ge 2$
c) Déterminer la loi de $Y$, $E(Y)$ et $V(Y)$
d) Calculer $P(X = Y)$
e) Calculer la loi de $X+Y$ avec $p = \frac{1}{2}$
1. a) $N$ (resp. $B$) variable aléatoire: le temps d'attente de la 1e réalisation de "obtenir une boule noire" (resp. boule blanche)
$N(\Omega) = [[1, +\infty[[$
$B(\Omega) = [[1, +\infty[[$
$P(N=k) = (1-p)^{k-1} * p = 1^{k-1}*p$
$(B=k) = (1-q)^{k-1} * q = p^{k-1}*q$
$\begin{align}E(N) = \frac{1}{p} \quad V(N) &= \frac{q}{p^2} \\
E(B) = \frac{TO}{DO} V(B) &= \frac{TO}{DO} \end{align}$
b) $P\big((N=1) \cap (B=1)\big) = P(\varnothing) = 0$
$P (N=1) * P(B=1) = pq \neq 0$
$\Rightarrow N$ et $B$ ne sont pas independants.
2) <u>Exemple</u> $(X=1) \cap (Y=2)$ est realisé pour:
$(N_1 \cap B_2 \cap B_3 \cap N_4)$ ou $(B_1 \cap N_2 \cap N_3 \cap B_4)$
a) <u>Loi du couple</u> $(X,Y)$
$P\big((X=i) \cap (Y=j)\big) = p^{i+1}q^j + q^{i+1}p^j$
$\forall (i,j) \in (\mathbb{N}^{*})^2$
$\begin{align}(X = i) \cap (Y = j)&: \big( (N_1 \cap N_2 \cap ... \cap N_i) \cap B_{i+1} \cap ... \cap B_{i+j} \cap N_{i+j+1}\big) \\
&\cup(B_1 \cap B_2 \cap ... \cap B_i \ cap N_i \cap ... \cap N_{i + j} \cap B_{i + j + 1})\end{align}$
b) <u>Loi de $X$</u>
$\begin{align}
P(X=i) &= \sum\limits_{j=1}^{+\infty}P((X=i) \cap (Y=j)) \\
&= \sum\limits_{j=1}^{+\infty}(p^{i+1}q^j + q^{i+1}p^j) \\
&= p^{i+1}q\frac{1}{1-q} + q^{i+1}p\frac{1}{1-p}
\end{align}$
$P(X=i) = p^iq + q^ip$
---
11 Mars 2020
---
##### Rappel: Série géométrique et sa dérivée
$\boxed{
\text{Soit } f(p) = \sum\limits_{n=0}^{+\infty}p^n = \frac{1}{1-p} \\
\text{Alors on a } f'(p) = \sum\limits_{n=0}^{+\infty}np^{n+1} = \frac{1}{(1-p)^2}}$
$\begin{align}
E(X) &= \sum\limits_{n=1}^{+\infty} nP(X=n) \\
&= \sum\limits_{n=1}^{+\infty} n(qp^n +pq^n) \\
&= \sum\limits_{n=1}^{+\infty} np^nq + \sum\limits_{n=1}^{+\infty} nq^np \\
&= pq \sum\limits_{n=1}^{+\infty} np^{n-1} + qp \sum\limits_{n=1}^{+\infty} nq^{n-1} \\
&= pq \frac{1}{(1-p)^2} + qp \frac{1}{(1-q)^2} \\
&= \frac{p}{q} + \frac{q}{p} \\
&= \frac{p^2 + q^2}{pq} \\
\text{Or } (p-q)^2 &= p^2 + q^2 -2pq \ge 0 \\
\end{align}$
$\begin{align}
\Rightarrow & p^2 + q^2 \ge 2pq \\
\Rightarrow & \frac{p^2 + q^2}{pq} \ge 2 \\
\Rightarrow & \boxed{E(X) \ge 2}
\end{align}$
c) <u>Loi de $\underline{Y}$</u>
$\forall j \in \mathbb{N}^*,
\begin{align}
P(Y=j) &= \sum\limits_{i=1}^{+\infty}P\big((X=i) \cap (Y=j)\big) \\
&= q^j \sum\limits_{i=1}^{+\infty}p^{i+1} + p^jq^2 \sum\limits_{i=1}^{+\infty}q^{i-1} \\
&= Stuff
\end{align}$
$\boxed{P(Y=j) = p^2q^{j-1} + q^2p^{j-1}}$
$\begin{align}
E(Y) &= \sum\limits_{n=1}^{+\infty}np^2q^{n-1} + \sum\limits_{n=1}^{+\infty}nq^2p^{n-1} \\
&= p^2 \sum\limits_{n=1}^{+\infty} nq^{n-1} + q^2 \sum\limits_{n=1}^{+\infty} np^{n-1} \\
&= p^2 \frac{1}{(1-q)^2} + q^2 \frac{1}{(1-p)^2} = 2
\end{align}$
$V(Y) = E(Y^2) - E^2(Y)$
$\begin{align}
E(Y^2) &= \sum\limits_{n=1}^{+\infty}n^2P(Y=n)
&= \sum\limits_{n=1}^{+\infty}n^2p^2q^{n-1} + \sum\limits_{n=1}^{+\infty}n^2q^2p^{n-1}
&= p^2\sum\limits_{n=1}^{+\infty}n^2q^{n-1} + q^2 \sum\limits_{n=1}^{+\infty}n^2p^{n-1}
\end{align}$
On sait que $\sum\limits_{n=1}^{+\infty}np^n = \frac{p}{(1-p)^2}$
En dérivant par rapport à p on a:
$\begin{align}
\sum\limits_{n=1}^{+\infty} n^2p^{n-1} &= \frac{(1-p)^2 + 2p(1-p)}{(1-p)^4} \\
&= \frac{1 - p + 2p}{(1-p)^3} = 1+p / 1-p)^3
\end{align}$
$\begin{align}
E(Y^2) &= p^2 frac{(1+q)}{(1-q)^3} + q^2 \frac{(1+p)}{(1-p)^3} \\
&= \frac{1+q}{p} + \frac{1+p}{q} = \frac{2q}{p} + \frac{2p}{q} + 2 \\
V(Y) &= E(Y^2) - E^2(Y) \\
&= \frac{2q}{p} + \frac{2p}{q} + 2 - 4 \\
\end{align}$
$\iff V(Y) = 2(\frac{q}{p} + \frac{p}{q} - 1)$
d) $(X=Y) = \boxed{\bigcup\limits_{n=1}^{+\infty}\big((X=n) \cap (Y=n)\big)} \leftarrow \text{Evenements incompatibles}$
$\begin{align}
P(X=Y) &= \sum\limits_{n=1}^{+\infty} P\big((X=n) \cap (Y=n)\big) \\
&= \sum\limits_{n=1}^{+\infty} (p^{n+1}q^n + q^{n+1}p^n) \\
&= p^2q\frac{1}{1-pq} + q^p\frac{1}{1-pq} \\
\Rightarrow P(X=Y) &= \frac{p^2q + pq^2}{1-pq} = \frac{pq(p+q)}{1-pq} \\
&= \frac{pq}{1-pq}
\end{align}$
e) Sachant que $p=q=\frac{1}{2}$, $P\big((X=i) \cap (Y=j)\big) = \left(\frac{1}{2}\right)^{i+j}$
$X(\Omega) = \mathbb{N}^* = Y(\Omega) \\
(X+Y)(\Omega) = [[2, +\infty[[ \\
\forall k \in (X+Y)(\Omega)
P(X+Y = k) = \sum\limits_{i,j \mid i+j=k}P\big((X=i) \cap (Y=j)\big) \\
\begin{align}
P(X+Y = k) &= \sum P\big((X=i) \cap (Y=k-i)\big) \\
&= \sum\limits_{i=1}^{k-1} (\frac{1}{2})^k = (k-1)\left(\frac{1}{2}\right)^k
\end{align}$
### II) PCA
#### 1) Les données et leur caractéristiques
##### a) Tableau de données
Les observations de $p$ variables $X^{(1)}$, $X^{(2)}$, $X^{(p)}$ sur $n$ individus sont rassemblées sur une matrice $X$ à n lignes et p colonnes
[image de matrice de sasa]
$X^{(j)} = \begin{pmatrix}X_1^{(j)} \\ . \\ . \\ . \\ X_n^{(j)} \end{pmatrix}$
$^te_i = \begin{pmatrix}X_i^{(1)} && X_i^{(2)} && ... && X_i^{(p)}\end{pmatrix}$
##### b) <u>Matrice des poids</u>
On associe à chaque individu un poids $P_i \ge 0$ (proba de choisir l'individu $n=i$)
$\sum\limits_{i=1}p_i = 1$
$D = \begin{pmatrix}
p_1 && 0 && ... && 0 \\
0 && p_2 && ... && 0 \\
... && ... && ... && ... \\
0 && 0 && .. && p_4\end{pmatrix} \leftarrow \text{matrice des poids}$
Si $p_i = \frac{1}{n} \Rightarrow \boxed{D = \frac{1}{n}I_n}$
##### c) <u>Centre de gravité</u>
Le vecteur $g$ des moyennes arithmétiques de chaque variable:
$g^t = \left(\overline{X^{(1)}}, \overline{X^{(2)}}, ..., \overline{X^{(p)}}\right)$
$$\boxed{\overline{ X^{(j)} } = \sum\limits_{i=1}^np_i X_i^{(j)}}$$
$g$: barycentre des nuages formés par les individus
Le tableau des données centrées est la matrice $Y$ telle que $\boxed{y_i^{(j)} = X_i^{(j)} - \overline{X^{(j)}}}$
##### d) <u>Matrice de variance-covariance et matrice de corrélation</u>
$\boxed{V=Y^tDY} \leftarrow$ matrice de variance-covariance
On note $D_{1/s}$ la matrice:
$D_{1/s} = \begin{pmatrix}
1/s_1 && 0 && ... && 0 \\
0 && 1/s_2 && ... && 0 \\
... && ... && ... && ... \\
0 && 0 && .. && 1/s_p\end{pmatrix} \leftarrow \text{matrice des données centrées et réduites}$
$Z: Z_i^{(j)}=\frac{y_i^{(j)}}{S_j}$ avec $S_j = \sqrt{Var(X^{(j)})}$
$S_j^2 = Var(X^{(j)}) = \sum\limits_{i=1}^{n} P_i\left(X_i^{(j)} - \overline{X^{(j)}}\right)^2 = \sum\limits_{i=1}^{n} P_i\left(y_i^{(j)}\right)^2$
$$\color{red}{\boxed{\color{black}{Z=YD_{1/s}}}}$$
La matrice regroupant tous les coefficients de corrélation linéaire entre les $p$ variables est $R$:
$R = \begin{pmatrix} FIXME
1/s_1 && 0 && ... && 0 \\
0 && 1/s_2 && ... && 0 \\
... && ... && ... && ... \\
0 && 0 && .. && 1/s_p\end{pmatrix} \leftarrow \text{matrice des données centrées et réduites}$
#### 1) Espace des individus
Chaque individu étant un vecteur défini par $p$ coord est considéré comme un élément d'un espace vectoriel $F$ appelé $\textbf{l'espace des individus}$
Les $n$ individus forment alors un nuage de points dans $F$ et $g$ en est le barycentre (ou centre de gravité).
On munit l'espace F d'une metrique (distance): $< e_i, e_j> = \Transpose de e_i M . e_j$
---
# Latex cheatsheet
$$\color{red}{\boxed{\color{black}a}}$$
$$\sum\limits_{i = 0}^{+\infty}$$
$$\mathbb{R}^{*}_{+}$$
$$\begin{align}
\mathcal{L}^{-1}\left\{f(d)\right\} &= \mathcal{L}^{-1}\left\{f_1(\delta).f_2(\delta)\right\} \\
& = \exp(mt) \star \left\{\frac{l}{2\sqrt{\pi t^3}} \exp(-l^2/{4t})\right\} \\
& = F_1 * F_2
\end{align}$$