--- title: "Proba - TD4 : Suites de variables aléatoires" tags: Proba, TD --- {%hackmd theme-dark %} $$ \newcommand{\vt}[3]{ \begin{pmatrix} {#1} \\ {#2} \\ {#3} \end{pmatrix} } \newcommand{\limto}[1]{\xrightarrow[#1]{}} $$ # Probabilités et statistiques - TD 4 : Suites de variables aléatoires [`video`](url_video) [`cours`](url_cours) [`slides`](url_slides) ## Cours ### La convergence en probabilité $X_n \longrightarrow^{proba} = 0 \Longleftrightarrow \forall \epsilon > 0 \lim_{n\to\infty} P(|X_n -X| < \epsilon) = 1$ ## Exercice 1 ### 1 $X_n \rightsquigarrow Unif(\frac{1}{n}, \frac{2}{n}), \forall n \in \mathbb{N}^*$ $E(X_n) = \frac{a + b}{2}$ $Var(X_n) = \frac{(a - b)^2}{12}$ Avec : $a = \frac{1}{n}$ et $b =\frac{2}{n}$ #### Convergence en mode $L_2$ $E(X_n) = \frac{3}{2n}$ $Var(X_n) = \frac{(\frac{1}{n})^2}{12} = \frac{1}{12n^2}$ $$ \begin{align} E({X^{2}}_n)_{n\to\infty} &= Var(X) + E(X)^2 \\ E({X^{2}}_n)_{n\to\infty} &= \frac{n}{12n^2} + \frac{9}{4n^2} \end{align} $$ Or $\frac{n}{12n^2} + \frac{9}{4n^2} \longrightarrow_{n\to\infty} = 0$ Donc $X_n \longrightarrow^{L_2} 0$ ##### Rappel $X \rightsquigarrow Unif(a, b)$ $$ f(x) = \left\{ \begin{array}{ll} \frac{1}{b-a} & \mbox{si } x \in [a,b] \\ 0 & \mbox{sinon.} \end{array} \right. $$ $$ F(x) = \left\{ \begin{array}{ll} \frac{x-a}{b-a} & \mbox{si } x \in [a,b] \\ 0 & x<a \\ 1 & x>b \end{array} \right. $$ $F(x)=P(X\leq x)$ #### Convergence en mode proba $\forall \epsilon > 0$ $P(|X_n] < \epsilon) = P( -\epsilon < X_n < \epsilon) = \int_{-\infty}^{+\infty}f(x)dx$ $\forall \epsilon > 0$ et $\forall n \geq \frac{2}{\epsilon}$ $[\frac{1}{n};\frac{2}{n}] \subset ] -\epsilon; \epsilon[$ $P(|X_n| < \epsilon) = 1$ Donc: $X_n \longrightarrow_{proba} 0$ ### 2 ##### Rappel $X \rightsquigarrow Exp(\lambda)$ $$ f(x) = \left\{ \begin{array}{ll} \lambda e^{-\lambda x} & \mbox{si } x \geq 0 \\ 0 & \mbox{sinon} \end{array} \right. $$ $E(X) = \frac{1}{\lambda}$ $Var(X) = \frac{1}{\lambda_2}$ $$ F(x) = \left\{ \begin{array}{ll} 1 - e^{-\lambda x} & \mbox{si } x \geq 0 \\ 0 & \mbox{sinon} \end{array} \right. $$ $n \in \mathbb{N}^* X \rightsquigarrow Exp(n)$ #### La convergence en mode $L_2$ $X_n \longrightarrow^{L_2} 0 \Longleftrightarrow E(X_n^2)_{n\to\infty}\longrightarrow 0$ $$ \begin{align} E(X^2_n) &= Var(X) + E(X)^2\\ E(X^2_n) &= \frac{1}{n^2} + \frac{1}{n^2} \\ E(X^2_n) &= \frac{2}{n^2} \\ Donc & \\ E(X^2_n) &\longrightarrow_{n\to\infty} 0 \end{align} $$ Donc: $X_n \longrightarrow^{L_2} 0$ #### La convergence en mode proba $$ \begin{align} \forall \epsilon > 0 P(|X_n| < \epsilon &= F(\epsilon) - F(\epsilon)) \\ &= (1 - e^{-n\epsilon}) \rightarrow_{n\to\infty} 1 \end{align} $$ Donc: $X_n \longrightarrow^{proba} 0$ ### 3 $X_n \rightsquigarrow \mathcal{N}(\frac{1}{n}, \frac{1}{n^2})$ $E(x) = \frac{1}{n}; Var(X) = \frac{1}{n^2}$ #### La convergence en mode $L_2$ $$ \begin{align} E(X^2_n) &= Var(X) + E(X^2)\\ &= \frac{1}{n^2} + (\frac{1}{n})^2\\ &= 2\frac{2}{n^2} \longrightarrow_{n\to\infty} 0 \end{align} $$ Donc : $X_n \longrightarrow^{L_2} 0$ #### La convergence en mode proba $\forall \epsilon > 0; P(|X_n| < \epsilon) \longrightarrow 1$ On effectue un changement de variable $$ \begin{align} \frac{X_n - m}{\sigma} &= Z_n\\ X_n &= \sigma Z_n + m\\ X_n &= \frac{1}{n}Z_n + \frac{1}{n} \end{align} $$ $\forall \epsilon > 0$ $$ \begin{align} P(|X_n| < \epsilon) &= P(-\epsilon < Z_n < \epsilon)\\ &=P(-\epsilon < \sigma Z_n < \epsilon)\\ &=P(\frac{-\epsilon -n}{\sigma} < Z_n < \frac{m + \epsilon }{\sigma})\\ &=P(n(\epsilon - \frac{1}{n}) < Z_n < n(- \frac{1}{n} - \epsilon))\\ &=[ (n(\epsilon - \frac{1}{n})) - [ (n(- \frac{1}{n} - \epsilon)) \end{align} $$ Or $\forall \epsilon > 0 n(\epsilon - \frac{1}{n} \longrightarrow_{n\to\infty} +\infty)$ Donc $[ (n(\epsilon - \frac{1}{n})) \longrightarrow_{n\to\infty} 1$ $n(\epsilon - \frac{1}{n}) \longrightarrow_{n\to+\infty} -\infty$ et $n(- \frac{1}{n} - \epsilon)\longrightarrow_{n\to+\infty} 0$ ### 4 $$ Y_n = \left\{ \begin{array}{ll} n & \mbox{proba} \frac{1}{n} \\ 0 & \mbox{proba} 1 - \frac{1}{n} \end{array} \right.\\ P(Y_n = n)= \frac{1}{n} = p \\ P(Y_n = 0) = 1- \frac{1}{n} = q\\ Y_n \rightsquigarrow B(\frac{1}{n}) $$ On pose $X_n = nY_n$ $n \in \mathbb{N}^*$ #### La convergence en mode $L_2$ Pour avoir $Y_n \longrightarrow_{L_2} 0$ il faut que $E(X_n^2)_{n\to+\infty} \longrightarrow 0$ $$ \begin{align} E(Y_n) &= qp\\ &= (1 - \frac{1}{n})\frac{1}{n}\\ &\\ E(X_n) &= E(nY_n)\\ &= nE(Y_n)\\ &= 1\\ &\\ Var(X_n) &= Var(nY_n)\\ &= n^2 Var(Y_n)\\ &= n^2\frac{1}{n}(1- \frac{1}{n})\\ &= n - 1 &\\ E(X_n^2) &= Var(X_n) + E(X_n)^2\\ &= (n - 1) + 1\\ &= n \end{align} $$ Or $n \longrightarrow_{n\to+\infty} +\infty$ Donc $X_n \nrightarrow_{L_2} 0$ #### La convergence en mode proba $\forall \epsilon > 0$ $P(|X_n| < \epsilon)_{n\to+\infty} \rightarrow 1$ $\forall \epsilon > 0, \forall n > \epsilon$ $$ \begin{align} P(|nY_n| < \epsilon) &= P(- \frac{\epsilon}{n} < Y_n < \frac{\epsilon}{n})\\ &=P(Y_n = 0)\\ &= 1 - \frac{1}{n} \end{align} $$ Or $1 - \frac{1}{n} \rightarrow_{n\to+\infty} 1$ Donc $X_n \rightarrow^{proba} 0 ## Exercice 2 Objectif : $\frac{Y_n}{P_n(n)} \rightarrow^{proba} 1$ ### 1 $$ \begin{align} F_n(x) &= P(Y_n \leq x)\\ &= P(max(X_1, \ldots , X_n) \leq x)\\ &= P(X_1 \leq x \mbox{ & } \ldots \mbox{ & } X_n \leq x)\\ &\mbox{ Comme } (X_i) \mbox{ sont indépendants}\\ &= P (X_1 \leq x) \ldots P(X_n \leq x) \end{align} $$ $$ F_n(x) = \left\{ \begin{array}{ll} (1 - e^{-x})^n & \forall x \geq 0 \\ 0 & \mbox{sinon} \end{array} \right. $$ ### 2 Montrons $\forall \epsilon > 0$ $P(|\frac{Y_n}{ln(n)}-1| < \epsilon) = (1 - \frac{1}{n^{1 + \epsilon}}) - (1 - \frac{1}{n^{1 - \epsilon}})$ $$ \begin{align} P(|\frac{Y_n}{ln(n)}-1| < \epsilon) &= P(-\epsilon < \frac{Y_n}{ln(n)}-1 < \epsilon\\ &= P(-\epsilon + 1< \frac{Y_n}{ln(n)} < \epsilon +1\\ &= P(ln(n)(-\epsilon + 1)< Y_n <ln(n) (\epsilon +1)\\ &= F_n(ln(n)(1 + \epsilon)) - F_n(ln(n)(1- \epsilon))\\ &= (1-e^{-ln(n)(1+\epsilon)})^n - (1-e^{-ln(n)(1-\epsilon)})^n\\ &= (1 - \frac{1}{n^{1 + \epsilon}}) - (1 - \frac{1}{n^{1 - \epsilon}}) \end{align} $$ $e^{-ln(n)(1+\epsilon)} = 1^{\infty}$ $e^{-ln(n)(1+\epsilon)} = \frac{1}{e^{ln(n)(1+\epsilon)}} = \frac{1}{e^{ln(n^{1 + \epsilon})}} = \frac{1}{n^{1+\epsilon}}$ ### 3 Si $\epsilon < 1$ $n\geq 1$ $\frac{1}{n^{1 + \epsilon}} \rightarrow_{n\to+\infty} 0$ $$ \begin{align} (1 - \frac{1}{n^{1 + \epsilon}})^n &= 1\\ &= e^{nln(1 - \frac{1}{n^{1 + \epsilon}})}\\ &= e^{n(- \frac{1}{n^{1 + \epsilon}} + \Theta(x))}\\ &= e^{- \frac{1}{n^\epsilon}+ \Theta(x)} \end{align} $$ Or $e^{- \frac{1}{n^\epsilon}+ \Theta(x)} \rightarrow_{n\to+\infty} 1$ Donc $(1 - \frac{1}{n^{1 + \epsilon}})^n$ ## Exercice 3 $\overline{X_n}$ : est la moyenne des variables de Bernoulli avec : $$ X_n = \left\{ \begin{array}{ll} 1 & \mbox{si le nème lancer vaut 1 }\\ 0 & \mbox{sinon} \end{array} \right. $$ $E(X_n) = \frac{1}{\epsilon}$ ; $Var(X_n) = \frac{5}{6} * \frac{1}{6} = \frac{5}{36}$ $\overline{X_n} = \frac{X_1 \mbox{ + ... + } X_n}{n}$ ### 1 : Justifier que $(\overline{X_n})\longrightarrow^{P.S.} \frac{1}{6}$ D'après le théorème de la loi forte des grands nombres, on a : $C_1$ : L'espérence de $|X_h|$ existe $C_2$ : Les variables $(X_i)$ sont 2 à 2 indépendantes Alors $(X_n)\longrightarrow^{P.S.}E(X_h) = m$ $E(|X_h|)$ est bien définie. Les 2 conditions du théorème sont vérifiées. Ainsi $(\overline{X_n})\longrightarrow^{P.S.} \frac{1}{6}$ ### 2 Soit $n\in \mathbb{N}^*$ , trouver $[a_n, b_n]$ centreée en $\frac{1}{6}$ L'inégalité de Tchebychev $\forall \epsilon > 0, P(|X - E(X)| > 0) \leq \frac{Var(X)}{\epsilon^2}$ $$ \begin{align} E(\overline{X_n}) &= E(\frac{X_1 \mbox{ + ... + } X_n}{n})\\ &= \frac{1}{n} * n * \frac{1}{6}\\ &= \frac{1}{6}\\ &\\ Var(\overline{X_n}) &= Var(\frac{X_1 \mbox{ + ... + } X_n}{n})\\ &= \frac{1}{n^2}* \sum_{i=1}^{n} Var(X_i)\\ &= \frac{5}{36n} \end{align} $$ $P(|\overline{X_n} - \frac{1}{6}| > \epsilon) \leq \frac{5}{36n\epsilon^2}$ $$ \begin{align} &P(x\in A) \leq \alpha\\ \Leftrightarrow & P(x\in \overline{A}) \geq 1 - \alpha\\ \Leftrightarrow & P(|\overline{X_n} -\frac{1}{6}| < \epsilon) \geq 1 - \frac{5}{36n\epsilon^2}\\ \Leftrightarrow & |\overline{X_n} - \frac{1}{6}| \leq \epsilon\\ \Leftrightarrow & \frac{1}{6} - \epsilon \leq \overline{X_n} \leq \frac{1}{6} + \epsilon\\ \Leftrightarrow &\overline{X_n} \in [\frac{1}{6} - \epsilon ; \frac{1}{6} + \epsilon] \end{align} $$ $P(\frac{1}{6} - \epsilon \leq \overline{X_n} \leq \frac{1}{6} + \epsilon) \geq 1 - \frac{5}{36n\epsilon^2} = 0,95$ On pose $\frac{5}{36n\epsilon^2} = 0,05$ $$ \begin{align} &\frac{5}{36n\epsilon^2} = 0,05\ \Leftrightarrow & \epsilon^2 = \frac{5}{36n * 0,05}\\ \Leftrightarrow & \epsilon^2 = \frac{100}{36n}\\ \Leftrightarrow & \epsilon = \frac{5}{3\sqrt{n}} \end{align} $$ L'intervalle $[a_n; b_n]$ est donc $a_n = \frac{1}{6} - \epsilon = \frac{1}{6} - \frac{5}{3\sqrt{n}}$ $b_n = \frac{1}{6} + \epsilon = \frac{1}{6} + \frac{5}{3\sqrt{n}}$ ### 3 Théorème central limite (TCL) $C_1$ : Les variables $X_i$ adettent une variation $C_2$ : Les $X_i$ sont 2 à 2 indépendants Posons $Z_n = \frac{\overline{X_n} - E(X_n)}{\sigma(\overline{X_n})},(Z_n)\longrightarrow_{loi} \mbox{ où } Z\in \mathcal{N}(0, 1)$ $$ \begin{align} \frac{\overline{X_n} - E(X_n)}{\sigma(\overline{X_n})} &= \frac{\overline{X_n} - \frac{1}{6}}{\frac{5}{6\sqrt{n}}}\\ &= \frac{6\sqrt{n}}{\sqrt{5}}(\overline{X_n} - \frac{1}{6}) \end{align} $$ $$ \begin{align} P(-1,96 \leq Z \leq 1,96) &= 0,95\\ P(-1,96 \leq Z_n \leq 1,96) &\approx P(Z\in [-1,96;1,96])\\ P(-1,96 \leq Z_n \leq 1,96) &\approx 0,95\\ &\mbox{On a } &-1,96 \leq \frac{6\sqrt{n}}{\sqrt{5}}(\overline{X_n} - \frac{1}{6}) \leq 1,96\\ & -1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6} \leq 1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6}\\ \overline{X_n} \in [-1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6}; 1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6}] \end{align} $$ On a donc $a'_n = -1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6}$ $b'_n = 1,96 * \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6} ### 4 On approxime $1,96 \approx 2$ Ainsi on a $2* \frac{\sqrt{5}}{6\sqrt{n}} + \frac{1}{6} = * \frac{\sqrt{5}}{3\sqrt{n}} + \frac{1}{6}$ Conclusion : $[a'_n; b'_n]$ est plus précis car $\frac{\sqrt{5}}{3\sqrt{n}} + \frac{1}{6} < \frac{5}{6\sqrt{n}} + \frac{1}{6}$ ## Exercice 4 $\delta X$ : la baisse d'altitude exprimé en mm par an $\delta X_n$ : la baisse d'altitude de l'année n $E(\delta X_i) = 1$ et $Var(\delta X_i) = \frac{1}{9}$ Les $\delta X_i$ sont indépendants et identiquement distribué Détermination de l'intervall de précision à $95\%$ de la baisse total au bout de 100 ans. On utilise le théorème central limite Les 2 conditions du théorèmes sont vérifiées On pose $S_n = \sum_{i=1}^{n} \delta X_i$ $S_n = \delta X_i \mbox{ + ... + } \delta X_n$ $\overline{S_n} = \frac{\delta X_i \mbox{ + ... + } \delta X_n}{n}$ $Z_n = \frac{S_n - E(S_n)}{\sigma(S_n)}$ $E(S_n) = E(\delta X_1 \mbox{ + ... + } \delta X_n) = \sum_{i=1}^{n} E(\delta X_i) = n$ $Var(S_n) = \frac{n}{9}$ $Z_{100} = \frac{(S_{100} - 100)}{\sqrt{\frac{100}{9}}} = \frac{3}{10}(S_{100} - 100) \rightsquigarrow \mathcal{N}(0, 1) Z_n \longrightarrow^n Z$ $$ \begin{align} P(Z\in [-1, 96; 1,96]) &= 0,95\\ P(Z_n\in [-1, 96; 1,96]) &\approx 0,95\\ \frac{3}{10} * (S_{100} - 100) &\in [-1, 96; 1,96]\\ -1,96 * \frac{10}{3} + 100 \leq S_{100} \leq 1,96 * \frac{10}{3} + 100\\ \end{align} $$ $P(S_{100} \in [a;b]) \approx 95\%$ avec $a = 100 - \frac{19,6}{3} = 93,5$ et $b = 100 + \frac{19,6}{3} = 106,5$ L'intervalle de précision au bout de 100 ans est $I = [93,5; 106,5]$.