---
title: "Proba - TD4 : Suites de variables aléatoires"
tags: Proba, TD
---
{%hackmd theme-dark %}
$$
\newcommand{\vt}[3]{
\begin{pmatrix}
{#1} \\
{#2} \\
{#3}
\end{pmatrix}
}
\newcommand{\limto}[1]{\xrightarrow[#1]{}}
$$
# Probabilités et statistiques - TD 4 : Suites de variables aléatoires
[`video`](url_video)
[`cours`](url_cours)
[`slides`](url_slides)
## Cours
### La convergence en probabilité
$X_n \longrightarrow^{proba} = 0 \Longleftrightarrow \forall \epsilon > 0 \lim_{n\to\infty} P(|X_n -X| < \epsilon) = 1$
## Exercice 1
### 1
$X_n \rightsquigarrow Unif(\frac{1}{n}, \frac{2}{n}), \forall n \in \mathbb{N}^*$
$E(X_n) = \frac{a + b}{2}$
$Var(X_n) = \frac{(a - b)^2}{12}$
Avec : $a = \frac{1}{n}$ et $b =\frac{2}{n}$
#### Convergence en mode $L_2$
$E(X_n) = \frac{3}{2n}$
$Var(X_n) = \frac{(\frac{1}{n})^2}{12} = \frac{1}{12n^2}$
$$
\begin{align}
E({X^{2}}_n)_{n\to\infty} &= Var(X) + E(X)^2 \\
E({X^{2}}_n)_{n\to\infty} &= \frac{n}{12n^2} + \frac{9}{4n^2}
\end{align}
$$
Or $\frac{n}{12n^2} + \frac{9}{4n^2} \longrightarrow_{n\to\infty} = 0$
Donc
$X_n \longrightarrow^{L_2} 0$
##### Rappel
$X \rightsquigarrow Unif(a, b)$
$$
f(x) = \left\{
\begin{array}{ll}
\frac{1}{b-a} & \mbox{si } x \in [a,b] \\
0 & \mbox{sinon.}
\end{array}
\right.
$$
$$
F(x) = \left\{
\begin{array}{ll}
\frac{x-a}{b-a} & \mbox{si } x \in [a,b] \\
0 & x<a \\
1 & x>b
\end{array}
\right.
$$
$F(x)=P(X\leq x)$
#### Convergence en mode proba
$\forall \epsilon > 0$
$P(|X_n] < \epsilon) = P( -\epsilon < X_n < \epsilon) = \int_{-\infty}^{+\infty}f(x)dx$
$\forall \epsilon > 0$ et $\forall n \geq \frac{2}{\epsilon}$
$[\frac{1}{n};\frac{2}{n}] \subset ] -\epsilon; \epsilon[$
$P(|X_n| < \epsilon) = 1$
Donc:
$X_n \longrightarrow_{proba} 0$
### 2
##### Rappel
$X \rightsquigarrow Exp(\lambda)$
$$
f(x) = \left\{
\begin{array}{ll}
\lambda e^{-\lambda x} & \mbox{si } x \geq 0 \\
0 & \mbox{sinon}
\end{array}
\right.
$$
$E(X) = \frac{1}{\lambda}$
$Var(X) = \frac{1}{\lambda_2}$
$$
F(x) = \left\{
\begin{array}{ll}
1 - e^{-\lambda x} & \mbox{si } x \geq 0 \\
0 & \mbox{sinon}
\end{array}
\right.
$$
$n \in \mathbb{N}^* X \rightsquigarrow Exp(n)$
#### La convergence en mode $L_2$
$X_n \longrightarrow^{L_2} 0 \Longleftrightarrow E(X_n^2)_{n\to\infty}\longrightarrow 0$
$$
\begin{align}
E(X^2_n) &= Var(X) + E(X)^2\\
E(X^2_n) &= \frac{1}{n^2} + \frac{1}{n^2} \\
E(X^2_n) &= \frac{2}{n^2} \\
Donc & \\
E(X^2_n) &\longrightarrow_{n\to\infty} 0
\end{align}
$$
Donc:
$X_n \longrightarrow^{L_2} 0$
#### La convergence en mode proba
$$
\begin{align}
\forall \epsilon > 0 P(|X_n| < \epsilon &= F(\epsilon) - F(\epsilon)) \\
&= (1 - e^{-n\epsilon}) \rightarrow_{n\to\infty} 1
\end{align}
$$
Donc:
$X_n \longrightarrow^{proba} 0$
### 3
$X_n \rightsquigarrow \mathcal{N}(\frac{1}{n}, \frac{1}{n^2})$
$E(x) = \frac{1}{n}; Var(X) = \frac{1}{n^2}$
#### La convergence en mode $L_2$
$$
\begin{align}
E(X^2_n) &= Var(X) + E(X^2)\\
&= \frac{1}{n^2} + (\frac{1}{n})^2\\
&= 2\frac{2}{n^2} \longrightarrow_{n\to\infty} 0
\end{align}
$$
Donc :
$X_n \longrightarrow^{L_2} 0$
#### La convergence en mode proba
$\forall \epsilon > 0; P(|X_n| < \epsilon) \longrightarrow 1$
On effectue un changement de variable
$$
\begin{align}
\frac{X_n - m}{\sigma} &= Z_n\\
X_n &= \sigma Z_n + m\\
X_n &= \frac{1}{n}Z_n + \frac{1}{n}
\end{align}
$$
$\forall \epsilon > 0$
$$
\begin{align}
P(|X_n| < \epsilon) &= P(-\epsilon < Z_n < \epsilon)\\
&=P(-\epsilon < \sigma Z_n < \epsilon)\\
&=P(\frac{-\epsilon -n}{\sigma} < Z_n < \frac{m + \epsilon }{\sigma})\\
&=P(n(\epsilon - \frac{1}{n}) < Z_n < n(- \frac{1}{n} - \epsilon))\\
&=[ (n(\epsilon - \frac{1}{n})) - [ (n(- \frac{1}{n} - \epsilon))
\end{align}
$$
Or $\forall \epsilon > 0 n(\epsilon - \frac{1}{n} \longrightarrow_{n\to\infty} +\infty)$
Donc $[ (n(\epsilon - \frac{1}{n})) \longrightarrow_{n\to\infty} 1$
$n(\epsilon - \frac{1}{n}) \longrightarrow_{n\to+\infty} -\infty$ et $n(- \frac{1}{n} - \epsilon)\longrightarrow_{n\to+\infty} 0$
### 4
$$
Y_n = \left\{
\begin{array}{ll}
n & \mbox{proba} \frac{1}{n} \\
0 & \mbox{proba} 1 - \frac{1}{n}
\end{array}
\right.\\
P(Y_n = n)= \frac{1}{n} = p \\
P(Y_n = 0) = 1- \frac{1}{n} = q\\
Y_n \rightsquigarrow B(\frac{1}{n})
$$
On pose $X_n = nY_n$ $n \in \mathbb{N}^*$
#### La convergence en mode $L_2$
Pour avoir $Y_n \longrightarrow_{L_2} 0$ il faut que $E(X_n^2)_{n\to+\infty} \longrightarrow 0$
$$
\begin{align}
E(Y_n) &= qp\\
&= (1 - \frac{1}{n})\frac{1}{n}\\
&\\
E(X_n) &= E(nY_n)\\
&= nE(Y_n)\\
&= 1\\
&\\
Var(X_n) &= Var(nY_n)\\
&= n^2 Var(Y_n)\\
&= n^2\frac{1}{n}(1- \frac{1}{n})\\
&= n - 1
&\\
E(X_n^2) &= Var(X_n) + E(X_n)^2\\
&= (n - 1) + 1\\
&= n
\end{align}
$$
Or $n \longrightarrow_{n\to+\infty} +\infty$
Donc $X_n \nrightarrow_{L_2} 0$
#### La convergence en mode proba
$\forall \epsilon > 0$ $P(|X_n| < \epsilon)_{n\to+\infty} \rightarrow 1$
$\forall \epsilon > 0, \forall n > \epsilon$
$$
\begin{align}
P(|nY_n| < \epsilon) &= P(- \frac{\epsilon}{n} < Y_n < \frac{\epsilon}{n})\\
&=P(Y_n = 0)\\
&= 1 - \frac{1}{n}
\end{align}
$$
Or $1 - \frac{1}{n} \rightarrow_{n\to+\infty} 1$
Donc $X_n \rightarrow^{proba} 0
## Exercice 2
Objectif : $\frac{Y_n}{P_n(n)} \rightarrow^{proba} 1$
### 1
$$
\begin{align}
F_n(x) &= P(Y_n \leq x)\\
&= P(max(X_1, \ldots , X_n) \leq x)\\
&= P(X_1 \leq x \mbox{ & } \ldots \mbox{ & } X_n \leq x)\\
&\mbox{ Comme } (X_i) \mbox{ sont indépendants}\\
&= P (X_1 \leq x) \ldots P(X_n \leq x)
\end{align}
$$
$$
F_n(x) = \left\{
\begin{array}{ll}
(1 - e^{-x})^n & \forall x \geq 0 \\
0 & \mbox{sinon}
\end{array}
\right.
$$
### 2
Montrons $\forall \epsilon > 0$
$P(|\frac{Y_n}{ln(n)}-1| < \epsilon) = (1 - \frac{1}{n^{1 + \epsilon}}) - (1 - \frac{1}{n^{1 - \epsilon}})$
$$
\begin{align}
P(|\frac{Y_n}{ln(n)}-1| < \epsilon) &= P(-\epsilon < \frac{Y_n}{ln(n)}-1 < \epsilon\\
&= P(-\epsilon + 1< \frac{Y_n}{ln(n)} < \epsilon +1\\
&= P(ln(n)(-\epsilon + 1)< Y_n <ln(n) (\epsilon +1)\\
&= F_n(ln(n)(1 + \epsilon)) - F_n(ln(n)(1- \epsilon))\\
&= (1-e^{-ln(n)(1+\epsilon)})^n - (1-e^{-ln(n)(1-\epsilon)})^n\\
&= (1 - \frac{1}{n^{1 + \epsilon}}) - (1 - \frac{1}{n^{1 - \epsilon}})
\end{align}
$$
$e^{-ln(n)(1+\epsilon)} = 1^{\infty}$
$e^{-ln(n)(1+\epsilon)} = \frac{1}{e^{ln(n)(1+\epsilon)}} = \frac{1}{e^{ln(n^{1 + \epsilon})}} = \frac{1}{n^{1+\epsilon}}$
### 3
Si $\epsilon < 1$ $n\geq 1$
$\frac{1}{n^{1 + \epsilon}} \rightarrow_{n\to+\infty} 0$
$$
\begin{align}
(1 - \frac{1}{n^{1 + \epsilon}})^n &= 1\\
&= e^{nln(1 - \frac{1}{n^{1 + \epsilon}})}\\
&= e^{n(- \frac{1}{n^{1 + \epsilon}} + \Theta(x))}\\
&= e^{- \frac{1}{n^\epsilon}+ \Theta(x)}
\end{align}
$$
Or $e^{- \frac{1}{n^\epsilon}+ \Theta(x)} \rightarrow_{n\to+\infty} 1$
Donc $(1 - \frac{1}{n^{1 + \epsilon}})^n$
## Exercice 3
$\overline{X_n}$ : est la moyenne des variables de Bernoulli avec :
$$
X_n = \left\{
\begin{array}{ll}
1 & \mbox{si le nème lancer vaut 1 }\\
0 & \mbox{sinon}
\end{array}
\right.
$$
$E(X_n) = \frac{1}{\epsilon}$ ; $Var(X_n) = \frac{5}{6} * \frac{1}{6} = \frac{5}{36}$
$\overline{X_n} = \frac{X_1 \mbox{ + ... + } X_n}{n}$
### 1 : Justifier que $(\overline{X_n})\longrightarrow^{P.S.} \frac{1}{6}$
D'après le théorème de la loi forte des grands nombres, on a :
$C_1$ : L'espérence de $|X_h|$ existe
$C_2$ : Les variables $(X_i)$ sont 2 à 2 indépendantes
Alors $(X_n)\longrightarrow^{P.S.}E(X_h) = m$
$E(|X_h|)$ est bien définie. Les 2 conditions du théorème sont vérifiées.
Ainsi
$(\overline{X_n})\longrightarrow^{P.S.} \frac{1}{6}$
### 2
Soit $n\in \mathbb{N}^*$ , trouver $[a_n, b_n]$ centreée en $\frac{1}{6}$
L'inégalité de Tchebychev
$\forall \epsilon > 0, P(|X - E(X)| > 0) \leq \frac{Var(X)}{\epsilon^2}$
$$
\begin{align}
E(\overline{X_n}) &= E(\frac{X_1 \mbox{ + ... + } X_n}{n})\\
&= \frac{1}{n} * n * \frac{1}{6}\\
&= \frac{1}{6}\\
&\\
Var(\overline{X_n}) &= Var(\frac{X_1 \mbox{ + ... + } X_n}{n})\\
&= \frac{1}{n^2}* \sum_{i=1}^{n} Var(X_i)\\
&= \frac{5}{36n}
\end{align}
$$
$P(|\overline{X_n} - \frac{1}{6}| > \epsilon) \leq \frac{5}{36n\epsilon^2}$
$$
\begin{align}
&P(x\in A) \leq \alpha\\
\Leftrightarrow & P(x\in \overline{A}) \geq 1 - \alpha\\
\Leftrightarrow & P(|\overline{X_n} -\frac{1}{6}| < \epsilon) \geq 1 - \frac{5}{36n\epsilon^2}\\
\Leftrightarrow & |\overline{X_n} - \frac{1}{6}| \leq \epsilon\\
\Leftrightarrow & \frac{1}{6} - \epsilon \leq \overline{X_n} \leq \frac{1}{6} + \epsilon\\
\Leftrightarrow &\overline{X_n} \in [\frac{1}{6} - \epsilon ; \frac{1}{6} + \epsilon]
\end{align}
$$
$P(\frac{1}{6} - \epsilon \leq \overline{X_n} \leq \frac{1}{6} + \epsilon) \geq 1 - \frac{5}{36n\epsilon^2} = 0,95$
On pose $\frac{5}{36n\epsilon^2} = 0,05$
$$
\begin{align}
&\frac{5}{36n\epsilon^2} = 0,05\
\Leftrightarrow & \epsilon^2 = \frac{5}{36n * 0,05}\\
\Leftrightarrow & \epsilon^2 = \frac{100}{36n}\\
\Leftrightarrow & \epsilon = \frac{5}{3\sqrt{n}}
\end{align}
$$
L'intervalle $[a_n; b_n]$ est donc
$a_n = \frac{1}{6} - \epsilon = \frac{1}{6} - \frac{5}{3\sqrt{n}}$
$b_n = \frac{1}{6} + \epsilon = \frac{1}{6} + \frac{5}{3\sqrt{n}}$
### 3
Théorème central limite (TCL)
$C_1$ : Les variables $X_i$ adettent une variation
$C_2$ : Les $X_i$ sont 2 à 2 indépendants
Posons $Z_n = \frac{\overline{X_n} - E(X_n)}{\sigma(\overline{X_n})},(Z_n)\longrightarrow_{loi} \mbox{ où } Z\in \mathcal{N}(0, 1)$
$$
\begin{align}
\frac{\overline{X_n} - E(X_n)}{\sigma(\overline{X_n})} &= \frac{\overline{X_n} - \frac{1}{6}}{\frac{5}{6\sqrt{n}}}\\
&= \frac{6\sqrt{n}}{\sqrt{5}}(\overline{X_n} - \frac{1}{6})
\end{align}
$$
$$
\begin{align}
P(-1,96 \leq Z \leq 1,96) &= 0,95\\
P(-1,96 \leq Z_n \leq 1,96) &\approx P(Z\in [-1,96;1,96])\\
P(-1,96 \leq Z_n \leq 1,96) &\approx 0,95\\
&\mbox{On a }
&-1,96 \leq \frac{6\sqrt{n}}{\sqrt{5}}(\overline{X_n} - \frac{1}{6}) \leq 1,96\\
& -1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6} \leq 1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6}\\
\overline{X_n} \in [-1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6}; 1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6}]
\end{align}
$$
On a donc
$a'_n = -1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6}$
$b'_n = 1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6}
### 4
On approxime $1,96 \approx 2$
Ainsi on a $2* \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6} = * \frac{\sqrt{5}}{3\sqrt{n}} + \frac{1}{6}$
Conclusion : $[a'_n; b'_n]$ est plus précis car $\frac{\sqrt{5}}{3\sqrt{n}} + \frac{1}{6} < \frac{5}{6\sqrt{n}} + \frac{1}{6}$
## Exercice 4
$\delta X$ : la baisse d'altitude exprimé en mm par an
$\delta X_n$ : la baisse d'altitude de l'année n
$E(\delta X_i) = 1$ et $Var(\delta X_i) = \frac{1}{9}$
Les $\delta X_i$ sont indépendants et identiquement distribué
Détermination de l'intervall de précision à $95\%$ de la baisse total au bout de 100 ans.
On utilise le théorème central limite
Les 2 conditions du théorèmes sont vérifiées
On pose $S_n = \sum_{i=1}^{n} \delta X_i$
$S_n = \delta X_i \mbox{ + ... + } \delta X_n$
$\overline{S_n} = \frac{\delta X_i \mbox{ + ... + } \delta X_n}{n}$
$Z_n = \frac{S_n - E(S_n)}{\sigma(S_n)}$
$E(S_n) = E(\delta X_1 \mbox{ + ... + } \delta X_n) = \sum_{i=1}^{n} E(\delta X_i) = n$
$Var(S_n) = \frac{n}{9}$
$Z_{100} = \frac{(S_{100} - 100)}{\sqrt{\frac{100}{9}}} = \frac{3}{10}(S_{100} - 100) \rightsquigarrow \mathcal{N}(0, 1) Z_n \longrightarrow^n Z$
$$
\begin{align}
P(Z\in [-1, 96; 1,96]) &= 0,95\\
P(Z_n\in [-1, 96; 1,96]) &\approx 0,95\\
\frac{3}{10} * (S_{100} - 100) &\in [-1, 96; 1,96]\\
-1,96 * \frac{10}{3} + 100 \leq S_{100} \leq 1,96 * \frac{10}{3} + 100\\
\end{align}
$$
$P(S_{100} \in [a;b]) \approx 95\%$
avec $a = 100 - \frac{19,6}{3} = 93,5$ et $b = 100 + \frac{19,6}{3} = 106,5$
L'intervalle de précision au bout de 100 ans est $I = [93,5; 106,5]$.