---
title: Tests classiques
date: ?
tags: TCOM, Regragui, COVID-19
---
# Convergence en statistique
## Convergence en probabilité
Déf: $X_n$ étant une suite de variables aléatoires réelles. On dit que $X_n$ converge en probabilité vers une variable aléatoire $X$ lorsque pour $\forall \varepsilon > 0$
$$\lim\limits_{x \to +\infty} P (|X_n - X| \geq \varepsilon) = 0$$
$$%X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} X$$
### Inégalité de Tchebyshev:
$$\forall \varepsilon > 0$$
$$P (|X_n - E(X_n)| \geq \varepsilon) \leq \frac{V(X_n)}{\varepsilon^2}$$
Remarque:
Si $E(X_n) %\xlongrightarrow[n \rightarrow +\intfy]{} a$ et $V(X_n) %\xlongrightarrow[n \rightarrow +\intfy]{} 0$
Alors:
$$%X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} a$$
Il suffit d'utiliser Tchebyshev:
$$\forall \varepsilon > 0,\;P (|X_n - E(X_n)| \geq \varepsilon) \leq \frac{V(X_n)}{\varepsilon^2}$$
$$\forall \varepsilon > 0,\;P (|X_n - a| \geq \varepsilon) \leq \frac{V(X_n)}{\varepsilon^2} %\xlongrightarrow[n \rightarrow +\intfy]{} 0$$
$$\Rightarrow \lim\limits_{x \to +\infty} P (|X_n - a| \geq \varepsilon) = 0$$
$$% \Rightarrow X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} a$$
## Convergence en moyenne d'ordre $p$
Déf: $X_n Converge$ en moyenne d'ordre $p$ si $$E((X_n - X)^p) %\xlongrightarrow[n \rightarrow +\intfy]{} 0$$
$$si\;p = 2 E((X_n-X)^2) %\xlongrightarrow[n \rightarrow +\intfy]{} 0$$
C'est la convergence en moyenne quadratique:
$$% X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{mq}} X$$
## Convergence en loi
Définition: La suite $X_n$ converge en loii vers la variable $X$ de fonction de répartition $F(x)$ si en tout point de continuité de $F$, la suite $(F_n)$ des fonctions de répartition de $X_n$ converge fers $F$:
$$\lim\limits_{x \to +\infty} F_n(x) = F(x)$$
$\forall x$ un point de continuité de $F$
Notation:
$$% X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{L}} X$$
### Téorème
$X_n$ converge en loi vers $X$ ssi $\lim\limits_{x \to +\infty} \Phi_{X_n}(t) = \Phi_{X}(t)$
Où $\Phi_{X_n}(t)$ est la fonction caractéristique de $X_n$ et $\Phi_{X}(t)$ est la fonction caractéristique de $X$
### Remarque
Si
$$%X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} a \Leftrightarrow X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{L}} a$$
$a$ est une constante.
# Ex2
Une usine fabrique en grand nombre des billes dont le diamètre $X$ suit une loi continue de densité: $$F(x) = \frac1{\sqrt{8\pi}}exp(-(\frac{x-100}{2\sqrt2})^2)$$
## Quelle est la probabilité pour une bille quelconque d'avoir un diamètre dans $[95, 105]$ ?
## Déterminer l'intervalle centré autour de $E(X)$ contentant $82\%$ de la production
## Un premier contrôle permet de répartir la production en 2 lots: $L_1$ et $L_2$.
$L_1$ est l'ensemble des billes de diamètre $X\notin[95, 105]$, dit `lot de rejet`.
$L_2$ est le lot d'acceptation.
Quelle est la probabilité pour qu'une bille soit telle que son diamètre $X \in [95, 102]$:
### Quand elle appartient au lot $L_1$ ?
$$P(x \in [95, 102]/l_1)=0$$
car $A \cap B = \emptyset$
### Quand elle appartient au lot $L_2$ ?
$$P(x \in [95, 102]/l_2)=\frac{P(95\leq X \leq 102)}{P(L_2)}$$
$$P(95\leq X \leq 102) = P(-\frac52 \leq u \leq 1)$$
$$= F(1) - F(-\frac52)$$
$$= F(1) - (1 - F(\frac52))$$
$$= F(1) - 1 + F(2.5)$$
$$= 0.8251$$
$$\Rightarrow P(x \in [95, 102]/l_2) = \frac{0.8251}{0.9876} = \boxed{0.8456}$$
## On extrait de la production totale un échantillon de taille 16, et on note $\Delta$ le diamètre moyen de l'échantillon. Quelle est $P(\Delta > 99)$?
$\Delta=\frac1{n} \sum_{i=1}^{n}X_i$ avec $n=16$, $X_i$ indépendante et même loi que $X$
$$E(\Delta) = \frac1{n}\sum_{i=1}^{n}E(X_i)$$
$$E(\Delta) = \frac{nE(X)}{n} = \boxed{100}$$
$$V(\Delta) = \frac1{n^2} \sum_{i=1}^{n}V(X_i) = \frac1{n^2}nV(X)$$
$$=\frac{V(X)}{n} = \frac{\sigma^2}{16} = \frac4{16} = \frac14$$
$$\Rightarrow \sigma(\Delta) = \frac12$$
$$\Delta \rightarrow N(100, \sigma = \frac12)$$
$$P(\Delta > 99) = 1 - P(\Delta \leq 99)$$
$$= 1 - P(\frac{\Delta - 100}{\frac12} \leq \frac{99 - 100}{\frac12})$$
$$= 1 - P(u \leq -2)$$
$$= 1 - F(-2)$$
$$= F(2)$$
$$= \boxed{0.9772}$$
# Ex3
Un candidat passant un examen est :
- ajourné si sa note est inférieure à 7
- passe un oral si sa note est comprise entre 7 et 12
- est admit si sa note est supérieure à 12.
On suppose que les notes suivent une loi normale : $X \rightarrow N(n=9, \sigma=3)$
## Calculer la probabilité pour qu'un candidat soit ajourné
On cherche $P(X<7)$
$$P(X<7) = P(\frac{X-9}3 \leq \frac{7-9}3)$$
$=P(u \leq -\frac23)$ avec $u=\frac{X-9}3$ \rightarrow N(0, 1)$
$$\boxed{P(X<7) = 25.14\%}$$
## Calculer la probabilité pour qu'un candidat passe l'oral
$$P(7\leq X \leq 12) = P(-\frac23 \leq u \leq 1)$$
$$= F(1) - F(-\frac23)$$
$$= F(1) - (1 - F(\frac23))$$
$$= F(1) - 1 + F(\frac23)$$
$$= 0.8413 - 1 + 0.7486$$
$$= \boxed{0.5899}$$
## Calculer la probabilité pour qu'un candidat soit admit sans oral
$$P(X > 12) = 1 - P(X \geq 12)$$
$$= 1 - P(U \geq 1)$$
$$= 1 - F(1)$$
$$= 1 - 0.8413$$
$$= \boxed{0.1587}$$
## Calculer l'intervalle de cente $E(X)$ qui contient $96\%$ des notes
$$I = [E(X) - r, E(X) + r]$$
Tel que $P(X \in I) = 96\%$
$r$: Rayon de $I$
$$P(|X-E(X)| \leq r) = 96\%$$
$$P(\frac{|X-E(X)|}{\sigma} \leq \frac{r}{\sigma}) = 96\%$$
$$P(|u| \leq \frac{r}{\sigma}) = 96\%$$
$$P(-\frac{r}3 \leq |u| \leq \frac{r}3) = 96\%$$
$$F(\frac{r}3) - F(-\frac{r}3) = 96\%$$
$$2F(\frac{r}3) - 1 = 96\%$$
$$F(\frac{r}3) = \frac{1,96}2 = 0.98$$
Table $\Rightarrow \frac{r}3 = 2.05$
$$\Rightarrow r \approx 6.15$$
$$I = [2.85, 15.15]$$
# Ex4
Soit $Y$ une Variable aléatoire de densité $g(y) = exp(-y-e^{-y}),\; \forall y \in \mathbb{R}$
## Déterminer la fonction de répartition de $Y$
> Il faut déterminer la primitive de la densité ($g(t)$) entre $-\infty$ et $y$
> Changement de variable: On pose $u = exp(-t)$
Posons $u = e^{-t} \Rightarrow du = -e^{-t}dt$
$$G(y) = \int_{+\infty}^{e^{-y}}e^{-u}(-du) = \int_{e^{-y}}^{+\infty}e^{-u}du$$
$$ = [-e^{-u}]_ {e^{-y}}^{+\infty}$$
$$G(y) = exp(-e^{-y})$$
## Soit $Z=e^{-y}$, Déterminer la fonction de répartition de $Z$, puis sa densité.
$$H(z) = P(Z < z) \forall z> 0$$
$$= P(e^{-Y} < z)$$
$$= P(-Y < ln(z))$$
$$= P(Y > -ln(z))$$
$$= 1 - P(Y \leq -ln(z))$$
$$= 1 - G(-ln(z))$$
$$\boxed{H(z) = 1 - e^{-z}}$$
$H(z)$ fonction de répartition de $Z$. Sa densité est $h(z) = H'(z) = e^{-z} \forall z > 0$.
## Calculer $E(Z)$ et $V(Z)$
> Rappel pour E(Z):l'intégrale de zh(z) entre 0 et +l'infini
> La variance de Z est E(Zau carré)-E(Z) au carré
> On doit trouver 1 pour E(Z)
### $E(Z)$
$$E(Z) = \int_{\mathbb{R}}z.ln(z)dz = \int_{0}^{+\infty}z.e^{-z}dz$$
$$= [z.e^{-z}]_{0}^{+\infty}-\int_{0}^{+\infty}(-e^{-z}dz) = \int_{0}^{+\infty}e^{-z}dz$$
$$= [-e^{-z}]_ {0}^{+\infty} = 1$$
### $V(Z)$
$$V(Z) = E(Z^2) - E^2(Z)$$
$$E(Z^2) = \int_{0}^{+\infty} z^2 h(z)dz = \int_{0}^{+\infty} z^2e^{-z}dz$$
$$E^2(Z) = [-z^2.e^{-z}]_{0}^{+\infty} - \int_{0}^{+\infty} 2z(-e^{-z})dz$$
$$= 2\int_{0}^{+\infty} z.e^{-z}dz = 2.E(Z) = 2$$
$$V(Z) = 2 - 1 = \boxed{1}$$
## ($Z_1$, ..., $Z_n$) un échantillon de $Z$
$Z_i$: V.A. indépendante de même loi qie $Z$
$$\overbar{Z_n} = \frac1{n} \sum_{i=1}^{n}Z_i$$
### Montrer que $\overbar{Z_n} -_ {n \rightarrow +\infty}^{P} > 1$
$$\overbar{Z_n} = \frac1{n}\sum_{i=1}^{n}Z_i, E(\overbar{Z_n}) = \frac{n.E(Z)}{n} = E(Z)$$
$$E(\overbar{Z_n}) = 1, V(\overbar{Z_n}) = \frac1{n^2}\sum_{i=1}^{n}V(Z_i)$$
$$V(\overbar{Z_n}) = \frac1{n^2}n.V(Z) = \frac{V(z){n^2}} = \frac1{n} \rightarrow 0$$
En utilisant l'intégralité de Tchebyshev.
$$\forall \varepsilon > 0, P(|\overbar{Z_n}-E(\overbar{Z_n})|>\varepsilon)<\frac{V(\overbar{Z_n})}{\varepsilon^2}$$
$$P(|\overbar{Z_n} - 1| > \varepsilon) < \frac1{n^2\varepsilon^2} \rightarrow 0$$
Donc $\overbar{Z_n} -_ {n \rightarrow +\infty}^{P}>1$
### Établir que $\overbar{Z_n}$ converge en moyenne quadratique vers une limite que l'on précisera.
On a $E((\overbar{Z_n} - 1)^2) = E((\overbar{Z_n}-E(\overbar{Z_n}))^2)$
$$E((\overbar{Z_n} - 1)^2) = V(\overbar{Z_n}) = \frac1{n} \rightarrow 0$$
Donc $\overbar{Z_n} -_ {n \rightarrow +\infty}^{m.q}> 1$
# Ex5
Soit $X$ une V.A. de loi $\gamma_p$
> Rappel de la loi gamma de paramètre p est f(x)=exp(-x).xpuissance(p-1) divisé par Gamma(p)
>
> $f(x) = \frac{e^(-x)x^{p-1}}{\gamma_p}$
>
> $\gamma_p = (p-1)!$
>
> Pour la fonction caractéristique, il faut calculer l’intégrale de $e^{itx}f(x)$ entre $0$ et $+\infty$.
## Déterminer la fonction caractéristique de $X$
$$\Phi_x(t) = \int_{0}^{+\infty}e^{itx}\frac1{\Gamma(p)}e^{-x}x^{p-1}dx$$
$$= \frac1{\Gamma(p)}\int_{0}^{+\infty}e^{(it -i)x}x^{p-1}dx$$
Posons $I_{p-1} = \int_{0}^{+\infty}e^{(it -i)x}x^{p-1}dx$
Intégration par partie:
$$u' = e^{(it-1)x}, v = x^{p-1}$$
$$u = \frac1{it-1}e^{(it-1)x}, v' = (p-1)x^{p-2}$$
$$I_{p-1} = [\frac{e^{(it-1)x}}{it-1}x^{p-1}]_ {0}^{+\infty} - \frac{p-1}{it-1}\int_{0}^{+\infty}x^{p-2}e^{(it-1)x}dx$$
Or $e^{(it -1)x}.x^{p-1} =e^{itx}.e^{x}.x^{p-1} \rightarrow 0 $
$$I_{p-1} = - \frac{p-1}{it-1}I_{p-2}, \forall p \geq 2$$
avec $I_{0} = \int_{0}^{+\infty}e^{(it-1)x}dx = [\frac{e^{(it-1)x}}{it-1}] = -\frac1{it-1}$
$$I_{p-1} = -\frac{p-1}{it-1}I_{p-2}$$
$$I_{p-2} = -\frac{p-2}{it-1}I_{p-3}$$
$$...$$
$$I_{2} = -\frac{2}{it-1}I_{1}$$
$$I_{1} = -\frac{1}{it-1}I_{0}$$
En faisant le produit,
$$I_{p-1} = \frac{(-1)^{p-1}(p-1)!I_0}{(it-1)^{p-1}} = \frac{(-1)^{p}(p-1)!}{(it-1)^{p}}$$
$$\Phi_x(t) = \frac1{^Gamma(p)}T_{p-1} = \frac{(-1)^p}{(it-1)^p} = (1-it)^{-p}$$
$$\boxed{\Phi_x(t) = (1-it)^{-p}}$$
## Déterminer la fonction caractéristique de $\frac{X-p}{\sqrt{p}}$
$$\frac{X-p}{\sqrt{p}} = e^{-\frac{itp}{\sqrt{p}}}\Phi(\frac{t}{\sqrt{p}})$$
$$= e^{-\frac{itp}{\sqrt{p}}}(1-it)^{-p}$$
## Montrer que $\frac{X-p}{\sqrt{p}} -_ {n \rightarrow +\infty}^{L}> N(0, 1)$
$$ln(\frac{\Gamma_{x-p}(t)}{\sqrt{p}}) = -\frac{itp}{\sqrt{p}} - p.ln(1-\frac{it}{\sqrt{p}})$$
Or, $ln(1+x) \approx x - \frac{x^2}2$ (à l'ordre 2).
$$ln(\frac{\Gamma_{x-p}(t)}{\sqrt{p}}) = -\frac{itp}{\sqrt{p}} - p(-\frac{itp}{\sqrt{p}} - -\frac{(it)^2}{2p})$$
$$ln(\frac{\Gamma_{x-p}(t)}{\sqrt{p}}) = -\frac{itp}{\sqrt{p}} + \frac{itp}{\sqrt{p}} - \frac{t^2}2 = - \frac{t^2}2$$
$\Rightarrow \frac{\Gamma_{x-p}(t)}{\sqrt{p}} \approx e^{- \frac{t^2}2}$ la fonction caractéristique de $N(0, 1)$
Donc $\frac{X-p}{\sqrt{p}}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$
# Approximation par la loi normale
## Théorème 1
$X_n$ étant une suite de variable binomiale $B(n, p)$.
Alors $\frac{X_n-np}{\sqrt{npq}}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$
### Démo
La fonction caractéristique de la loi $B(n, p)$:
$$\Phi_{x_n}(t) = (pe^{it}+1-p)^n$$
Donc celle de $\frac{X_n-np}{\sqrt{npq}}$ est:
Posons: $Y_n = \frac{X_n-np}{\sqrt{npq}}$
$$\Phi_{Y_n}(t) = e^{-\frac{itnp}{\sqrt{npq}}}\Phi_{X_n}(\frac{t}{\sqrt{npq}})$$
$$\Phi_{Y_n}(t) = e^{-\frac{itnp}{\sqrt{npq}}}(pe^{\frac{it}{\sqrt{npq}}}+1-p)^n$$
$$ln(\Phi_{Y_n}(t)) = -\frac{itnp}{\sqrt{npq}}+n.ln(p(e^{\frac{it}{\sqrt{npq}}} - 1)+1)$$
Or, $ln(1+x) \approx x - \frac{x^2}2$
$$ln(\Phi_{Y_n}(t)) \approx -\frac{itnp}{\sqrt{npq}} + n.(\frac{pit}{\sqrt{npq}} - \frac{t^2}{2nq} + \frac{p^2t^2}{2npq})$$
$$\approx -\frac{itnp}{\sqrt{npq}} + \frac{npit}{\sqrt{npq}} - \frac{t^2}{2q} + \frac{p^2t^2}{2pq}$$
$$\approx - \frac{t^2}{2q}(1-p) = -\frac{t^2}2$$
Donc $ln(\Phi_{Y_n}(t)) \approx -\frac{t^2}2$
$$\Rightarrow ln(\Phi_{Y_n}(t)) \approx e^{-\frac{t^2}2}$$
(fonction caractéristique de $N(0, 1)$)
Donc $Y_n-_ {p \rightarrow +\infty}^{L}>N(0, 1)$
$$\Rightarrow \frac{X_n-np}{\sqrt{npq}} -_ {p \rightarrow +\infty}^{L}>N(0, 1)$$
## Théorème 2
Soit $(X_\lambda)$ une formulle de variable de Poisson $P(\lambda)$ alors:
$$\frac{X_{\lambda}-\lambda}{\sqrt{\lambda}} -_ {p \rightarrow +\infty}^{L}>N(0, 1)$$
### Démo
On a vu que: $\Phi_{X_{\lambda}}(t) = e^{-\lambda}exp(\lambda.e^{it})$
$$\Phi_{X_{\lambda}}(t) = exp(\lambda(e^{it} - 1))$$
Posons $Y_{\lambda} = \frac{X_{\lambda}-\lambda}{\sqrt{\lambda}}$
$$\Phi_{X_{\lambda}}(t) = e^{-\frac{it\lambda}{\sqrt{\lambda}}} \Phi_{X_{\lambda}}(\frac{t}{\sqrt{\lambda}})$$
$$\Phi_{X_{\lambda}}(t) = e^{-\frac{it\lambda}{\sqrt{\lambda}}} exp(\lambda(e^{\frac{it}{\sqrt{\lambda}}} - 1))$$
$$\Phi_{X_{\lambda}}(t) = exp(-\frac{it\lambda}{\sqrt{\lambda}} + \lambda(e^{\frac{it}{\sqrt{\lambda}}} - 1))$$
Or, $e^{\frac{it}{\sqrt{\lambda}}} \approx 1 + \frac{it}{\sqrt{\lambda}} - \frac{t^2}{2\lambda}$
$$\Rightarrow \Phi_{X_{\lambda}}(t) = exp(-it\sqrt{\lambda} + \lambda + \frac{it\lambda}{\sqrt{\lambda}} - \frac{t^2}2 - \lambda))$$
$$\approx exp(- \frac{t^2}2)$$
(fonction caractéristique de $N(0, 1)$)
Donc:
$$\boxed{\frac{X_{\lambda}-\lambda}{\sqrt{\lambda}} -_ {p \rightarrow +\infty}^{L}>N(0, 1)}$$
## Théorème _Central Limite_
$X_n$ une suite de V.A. indépendantes et de même loi d'espérence $m$ et d'écart-type $\sigma$ alors:
$$\frac{X_1 + X_2 + ... + X_n -n * m }{\sigma \sqrt{n}}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$$
Posons $S_n = \sum_{i=1}^{n} X_i,\;E(S_n)=n * m,\;V(S_n) = \sum_{i=1}^{n}V(x_i) = n\sigma^2$
$$\sigma(S_n) = \sigma \sqrt{n}$$
Donc le théorème traduit que:
$$\frac{S_n - E(S_n)}{\sigma(S_n)}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$$
### Démo
Soit $\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t)$ fonction caractéristique de $\frac{X_i-m}{\sigma\sqrt{n}}$.
$$S_n = \sum_{i=1}^{n} X_i$$
$$D(S_n) = n * m$$
$$\sigma(S_n) = \sigma\sqrt{n}$$
$$\frac{S_n-n * m}{\sigma\sqrt{n}} = \sum_{i=1}^{n} (\frac{X_i-m}{\sigma\sqrt{n}})$$
Donc:
$$\Phi_{\frac{S_n - n * m}{\sigma\sqrt{n}}}(t) = \Phi_{\sum_{i=1}^{n} (\frac{X_i-m}{\sigma\sqrt{n}})}(t) = \prod_{i=1}^{n}\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t)$$
$$\Rightarrow \Phi_{\frac{S_n - n * m}{\sigma\sqrt{n}}}(t) = (\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t))^n$$
Or $E(\frac{X_i - m}{\sigma\sqrt{n}}) = 0$ et $V(\frac{X_i - m}{\sigma\sqrt{n}}) = \frac{V(X_i)}{n\sigma^2}$$
$$= \frac{\sigma^2}{n\sigma^2} = \frac1{n}$$
D'après la formule de _Mac Laurin_ à l'ordre 2:
$$\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t) \approx 1 - \frac{t^2}{2n}$$
Donc:
$$\Phi_{\frac{S_n - n * m}{\sigma\sqrt{n}}}(t) \approx (1 - \frac{t^2}{2n})^n -_ {n\rightarrow +\infty}> e^{-\frac{t^2}{2}}$$
Car $\lim\limits_{n \to +\infty} (1 + \frac{x}{n})^n = e^x$
Or $e^{-\frac{t^2}{2}}$ C'est la fonction caractéristique de la loi normale $N(0, 1)$
Donc $\frac{S_n - E(S_n)}{\sigma(S_n)}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$
# TD
## Exo 6
Soit $X_n$ une suite de V.A. de densité $f_n(x) = \frac{ne^{-nx}}{(1 + e^{-nx})^2}$.
Montrer que $X_n -_ {n \rightarrow +\infty}^{P}> O$
---
$$\forall \varepsilon > 0,\; P(|X_n|\geq \varepsilon) = 1 - P(|X_n| < \varepsilon)$$
$$P(|X_n|\geq \varepsilon) = 1 - P(-\varepsilon < X_n < \varepsilon)$$
$$ = 1 - \int_{-\varepsilon}^{\varepsilon}f_n(x)dx$$
$$ = 1 - \int_{-\varepsilon}^{\varepsilon}\frac{ne^{-nx}}{(1 + e^{-nx})^2}dx$$
$$ = 1 - [\frac{1}{1 + e^{-nx}}]_ {-\varepsilon}^{\varepsilon}$$
$$ = 1 - \frac{1}{1 + e^{-n\varepsilon}} + \frac{1}{1 + e^{n\varepsilon}}$$
$$\lim\limits_{n \to +\infty} P(|X_n| \geq \varepsilon) = 1 - 1 = 0$$
Donc $X_n -_ {n \rightarrow +\infty}^{P}> O$
## Exo 7
Soit $X$ une V.A. suivant la loi exponentielle de la densité:
$$\begin{cases} f(x) = 0 &si\;x \leq 0 \\ f(x) = e^{-x} &si\;x > 0 \end{cases}$$
On considère $X_1$, $X_2$, ..., $X_n$ une suite de V.A. indépendantes de même loi que X.
Soit $U_n = Inf_{i \leq i \leq n} X_i$.
Montrer que $U_n -_ {n \rightarrow +\infty}^{L}> O$
---
Soit $G_n(x)$ la fonction de répartition de $U_n$
$$\begin{cases} si\;x < 0 & G_n(x) = 0 \\ si\;x < 0 & G_n(x) = P(U_n \leq x) \end{cases}$$
$$ G_n(x) = 1 - P(U_n > x)$$
$$ G_n(x) = 1 - P(X_i > x, i \in \{1, ..., n\})$$
$$ G_n(x) = 1 - P(\cap_{i=1}^{n}X_i > x)$$
$$ G_n(x) = 1 - \prod_{i=1}^{n}P(X_i > x)$$
$$ G_n(x) = 1 - \prod_{i=1}^{n}(1 - P(X_i \leq x))$$
$$ G_n(x) = 1 - \prod_{i=1}^{n}(1 - F(x)) = 1 - e^{-nx}$$
Donc $G_n(x) = \begin{cases} 1 - e^{-nx} & si\; x > 0 \\ 0 & si\; x < 0 \end{cases}$
Donc $$\lim\limits_{n \to +\infty} G_n(x) = G_n(x) = \begin{cases} 1 & si\;x > 0 \\ 0 & si\;x < 0 \end{cases}$$
Donc $U_n-_ {N \rightarrow +\infty}^{L}> 0$
## Exo 8
On effectue $n$ tirages avec remise dans une urne contenant 2 boules blanches et 4 boules bleu.
$$\forall i = 1 \rightarrow n,\;X_i = \begin{cases} 1 & Si\;la\;boule\;tirée\;est\;blanche \\ 0 & sinon \end{cases}$$
### 1 - Étudier la convergence en probabilité de $\overbar{X_n} = \frac1{n} \sum_{i=1}^{n} X_i$
$$E(X_i) = p = \frac13$$
$$V(X_i) = pq = \frac29$$
$$E(\overbar{X_n}) = \frac1{n} \sum_{i=1}^{n}E(X_i) = \frac{np}{n} = p = \frac13$$
$$V(\overbar{X_n}) = \frac1{n^2} \sum_{i=1}^{n}V(X_i) = \frac{npq}{n^2} = \frac{pq}{n} = \frac2{9n}$$
$$V(\overbar{X_n}) \rightarrow_{n \rightarrow +\infty} 0$$
En utilisant _Tchebychev_,
$$\forall \varepsilon > 0,\; P(|\overbar{X_n} - \frac13| \geq \varepsilon) \leq \frac{V(\overbar{X_n})}{\varepsilon^2} = \frac2{9n\varepsilon^2}\rightarrow_ {n \rightarrow +\infty} 0$$
Donc $\boxed{\overbar{X_n}-_ {n \rightarrow +\infty}^{P}> \frac13}$
### 2 - Déterminer le nombre minimum $n_0$ de tirages nécessaires pour que $P(|\overbar{X_n} - \frac13| \geq 0.002) \leq 10^{-2}$
> Utiliser _Tchebychev_
En utilisant l'inégalité de Tchebychev:
$$P(|\overbar{X_n} - \frac13| \geq 0.002) \leq \frac{V(\overbar{X_n})}{(0.02)^2} = \frac1{9n(0.002)^2}$$
$$\varepsilon = 0.002$$
On cherche $n$ tel que:
$$\frac1{9n(0.002)^2} \leq 0.01$$
$$\Rightarrow n \geq \frac{10^6}{18}$$
La valeur minimale de $n$ est $\boxed{n_o = 55\;556}$
### 3 - En utilisant le théorème _central - limite_, déterminer une autre valeur $n_1$ répondant à la question précédente.
En utilisant le théorème _central - limite_:
$$\frac{\overbar{X_n} - E(\overbar{X_n})}{\sigma(\overbar{X_n})}-_ {n \ rightarrow +\infty}^{L}> N(0, 1)$$
$$U_n = \frac{\overbar{X_n} - \frac13}{\sqrt{\frac2{3n}}}-_ {n \ rightarrow +\infty}^{L}> N(0, 1)$$
On doit avoir: $P(|U_n| \geq 0.06\sqrt{\frac{n}2}) \leq 0.01$
On note $\Phi$ la fonction de répartition de la loi normale $N(0, 1)$.
Or $P(|U_n| \geq 0.006\sqrt{\frac{n}2}) = 1 - P(|U_n| < 0.006\sqrt{\frac{n}2})$
$$P(|U_n| \geq 0.06\sqrt{\frac{n}2}) = 1 - P(-0.06\sqrt{\frac{n}2} < U_n < 0.06\sqrt{\frac{n}2})$$
$$= 1 - (\Phi(0.06\sqrt{\frac{n}2}) - \Phi(-0.06\sqrt{\frac{n}2}))$$
$$= 1 - (\Phi(0.06\sqrt{\frac{n}2}) - (1 - \Phi(0.06\sqrt{\frac{n}2})))$$
$$= 2 - 2\Phi(0.06\sqrt{\frac{n}2}) \leq 0.01$$
$$\Rightarrow \Phi(0.06\sqrt{\frac{n}2}) > 0.995$$
Table de la loi normale: $\Phi(2.6) \approx 0.995$
$$\Rightarrow 0.06\sqrt{\frac{n}2} \geq 2.6$$
$$\Rightarrow \boxed{n_1 = 3756}$$
**Conclusion**: On fait moins de tirages $n_1 < n_0$ en utilisant le théorème _central - limite_
## Exo 9
La durée de fonctionnement exprimé en jours, d'un certain modèle électronique (composant électronique) est une V.A. continue $D$ dont on connait $E(D) = 600$ et $V(D) = 120\;000$.
Soit $T$ la V.A. égale à la moyenne des durées de fonctionnement de 100 composants de ce modèle.
On suppose que les durées sont indépendantes.
### 1 - Déterminer $E(T)$ et $V(T)$
Soit $D_k$: la durée de fonctionnement du $k^{ieme}$ composants électronique.
$$E(D_k) = 600;\;V(D_k) = 120\:000$$
$$T = \frac1{100}\sum_{k=1}^{100}D_k$$
$$E(T) = \frac{100E(D_k)}{100} = E(D_k) = 600$$
$$V(T) = \frac1{100^2} \sum_{k=1}^{100} V(D_k) = \frac{100V(D_k)}{100^2} = 1200$$
$$\sigma(T) = \sqrt{V(T)} = 20 \sqrt{3}$$
### 2 - Étudier la convergence en loi de la variable $T$
$$S_n = \sum_{k=1}^{n}D_k,\;n=100$$
$$T = \frac{S_n}{n}$$
Les $D_k$ sont indépendants et de même limite
D'après le théorème _central - limite_:
$$\frac{S_n - E(S_n)}{\sigma{S_n}} \approx N(0, 1)$$
$$E(S_n) = 600n,\;V(S_n) = nV(D_k) = n * 120\;000$$
$$\sigma = 200\sqrt{3}\sqrt{n}$$
$$\frac{S_{100} - 60\;000}{2000\sqrt{3}} = \frac{100T - 60\;000}{2000\sqrt{3}} = \frac{T - 600}{20\sqrt{3}} \approx N(0, 1)$$
### 3 - Déterminer le nombre réel positif tel que: $P(|T - 600| > t) = 5\%$
Posons $T\ast = \frac{T - 600}{20\sqrt{3}}$.
Donc $P(|T\ast| > \frac{t}{20\sqrt{3}}) = 0.05$
$$\Rightarrow 1 - P(|T\ast| \leq \frac{t}{20\sqrt{3}}) = 0.05$$
$$\Rightarrow 1 - P(-\frac{t}{20\sqrt{3}} \leq T\ast \leq \frac{t}{20\sqrt{3}}) = 0.05$$
Ce qui donne:
$$1 - (\Phi(\frac{t}{20\sqrt{3}}) - \Phi(-\frac{t}{20\sqrt{3}})) = 0.05$$
$$\Rightarrow 2(1 - \Phi(\frac{t}{20\sqrt{3}})) = 0.05$$
$$\Phi(\frac{t}{20\sqrt{3}}) = 0.975$$
D'après la table de $N(0, 1)$: $\Phi(1.96) = 0.975$
$$\Rightarrow \frac{t}{20\sqrt{3}} = 1.96$$
$$\Rightarrow \boxed{t = 67.9}$$
## Exo 10
Le nombre de pannes, par mois, sur une certaine machine, soit une loi de Poissons $P(\lambda = 3)$.
Un atelier fonctionne avec 12 machines de ce type, indépendantes.
> Poser $X$ le nombre de pannes de l'atelier et $X_i$ le nombre de pannes de la machine numéro $i$.
> $X$ est une somme indépendante de variables de Poisson.
> La loi de $X$ est une variables de Poisson $P(\lambda = 36)$
> Utiliser l'approximation de Poisson par la loi normale.
En un mois, quelle est la probabilité de constater dans cet atelier:
### Plus de 42 pannes ?
Soit $X$ le nombre de pannes dans l'atelier en un mois.
$$X = \sum_{i}^{n} X_i\;(n = 12)$$
Où: $X_i$ nombre de pannes en un mois de la machine $i$.
$$X_i \rightarrow P(3)$$
Les $X_i$ sont indépendants.
Donc $X \rightarrow P(\lambda = 3 * 12 = 36)$
On utilise l'approximation de Poisson par la loi normale:
$$\frac{X - 36}{\sqrt{36}} \ apporx N(0, 1)$$
On Cherche $P(X > 42)$
$$P(X > 42) = P(\frac{X - 36}{6} > \frac{42 - 36}{6})$$
$$U = \frac{X - 36}{6} \ approx N(0, 1)$$
$$P(X > 42) = P(U > 1)$$
$$= 1 - P(U \leq 1)$$
$$= 1 - F(1)$$
$$= 1 - 0.8413$$
$$= \boxed{0.1587}$$
### Entre 36 et 45 pannes ?
$$P(32 \leq X \leq 45) = P(0 \leq \frac{X - 36}{6} \leq \frac{45 - 36}{6})$$
$$= P(0 \leq U \leq \frac32)$$
$$= \Phi(1.5) - \Phi(0)$$
(où $\Phi$: fonction de répartition de $N(0, 1)$)
$$= 0.9332 - 0.5$$
$$= \boxed{0.4332}$$
# Estimation
Le problème central de l'estimation est le suivant: disposant d'observations sur un échantillon de taille $n$: $(X_1, X_2, ..., X_n)$.
On veut en déduire les propriétés de la population $X$ dont il est issu.
On cherche à estimer par exemple la moyenne $m = E(X)$ de la population ou $\sigma^2 = V(X)$ (variance) à partir de la moyenne empirique $\overbar{X}$ d'un échantillon ou à partir de la variance empirique de l'échantillon.
Définition: Une statistique $T$ est une V.A. aléatoire mesurable, fonction de $(X_1, X_2, ..., X_n)$. (échantillon de $X$)
$$T = f(X_1, X_2, ..., X_n)$$
Exemple:
La statistique $\overbar{X} = \frac1{n} \sum_{i=1}^{n} X_i$ s'appelle la moyenne empirique.
$$E(\overbar{X}) = \frac1{n} \sum_{i=1}^{n} E(X_i) = \frac{n * E(x)}{n} = E(X)$$
$$E(\overbar{X}) = E(X) = m$$
$$V(\overbar{X}) = \frac1{n^2} \sum_{i=1}^{n} V(X_i) = \frac{n * \sigma^2}{n^2} = \frac{\sigma^2}{n}$$
D'après _Tchebyshev_: $\forall \varepsilon > 0$
$$P(|\overbar{X} - m| > \varepsilon) < \frac{V(\overbar{X})}{\varepsilon^2} -_ {n \rightarrow +\infty}> 0$$
Donc $\overbar{X} -_ {n \rightarrow +\infty}^{P}> m$
Donc $\overbar{X}$ converge en probabilité vers $m = E(X)$ lorsque $n \rightarrow +\infty$.
On dit alors que $\overbar{X}$ est une estimation de la moyenne $m = E(X)$.
Cette propriété s'appelle _la loi faible des grands nombres_.
Définition: On appelle variance empirique la statistique $S^2 = \frac1{n} \sum_{i=1}^{n} (X_i - \overbar{X})^2$
Proposition:
$$S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - \overbar{X}^2$$
## Démo
$$S^2 = \frac1{n} \sum_{i=1}^{n} (X_i - \overbar{X})^2$$
$$S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - 2X_i\overbar{X} + \overbar{X}^2$$
$$S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - 2\overbar{X}\frac1{n} \sum_{i=1}^{n} X_i + \frac{n\overbar{x}^2}{n}$$
$$\Rightarrow S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - 2\overbar{X}^2 + \overbar{X}^2$$
$$\Rightarrow \boxed{S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - \overbar{X}^2}$$
Montrons que: $S^2-_ {n \rightarrow +\infty}^{P}> \sigma^2$
En effet, d'après la loi des grands nombres: $\overbar{X} = \frac1{n} \sum_{i=1}^{n} X_i -_ {n \rightarrow +\infty}^{P}> m = E(X)$ et $\frac1{n} \sum_{i=1}^{n} X_i^2 -_ {n \rightarrow +\infty}^{P}> E(X^2)$.
Donc $S^2 -_ {n \rightarrow +\infty}^{P}> E(X^2) - E^2(X) = \sigma^2$
$$S^2 -_ {n \rightarrow +\infty}^{P}> \sigma^2 = V(X)$$
On dit que $S^2$ est un estimateur de la varience $\sigma^2 = V(X)$
## Qualité d'un estimateur
Soit $\theta$ le paramètre à estimer et $T$ une estimation de $\theta$.
La $1^{er}$ qualité d'une estimation est d'être convergent: $T -^{P}> \theta$.
On a: $T - \theta = T - E(T) + E(T) - \theta$
Où:
- $T - E(T)$: représente les variations aléatoires de $T$ autour de $E(T)$
- $E(T) - \theta$: représente le biais.
Il est donc souhaitable d'utiliser des estimateurs sans biais:
$$\boxed{E(T) = \theta}$$
### Exemple
$$\overbar{X} = \frac1{n} \sum_{i=1}^{n} X_i$$
$$E(\overbar{X}) = m$$
Donc $\overbar{X}$ est une estimation sans biais de $m$.
## Proposotion
Soit $T$ un estimateur de $\theta$.
$$E((T - \theta)^2) = V(T) + (E(T) - \theta)^2$$
$E((T - \theta)^2)$: L'erreur quadratique
### Démo
$$T - \theta = T - E(T) + E(T) - \theta$$
$$E((T - \theta)^2) = E((T - E(T))^2 + 2(E(T) - \theta)(T - E(T)) + (E(T) - \theta)^2) $$
Or $E(T) - \theta$ est constant.
$$E((T - \theta)^2) = V(T) + (E(T) - \theta)^2) $$
## Remarque
Si $E(T) = \theta$ ($T$ sans biais):
$$\boxed{E((T - \theta)^2) \approx V(T)}$$
Dans deux estimations sans biais, le plus précis est donc celui de variance maximale.
## Définition
On appelle Vraisemblance de $\theta$, la densité de l’échantillon : $(X_1, X_2, ..., X_n)$ noté :
$$\begin{cases} L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n}P(X_i = x_i) & cas\;discret\\ L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n}f(x_i) & cas\;continu \end{cases}$$
## Exemple
Soit: $X\rightarrow T(\theta)$ variable de Poisson de paramètre $\theta$
Soit $(X_1, X_2, ..., X_n)$ un échantillon de $X\rightarrow T(\theta)$
On a $L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n} P(X_i = x_i)$
Or $P(X_i = x_i) = e^{-\theta} \frac{\theta^{x_i}}{x_i!}$
$$\Rightarrow L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n} e^{-\theta} \frac{\theta^{x_i}}{x_i!}$$
$$\Rightarrow L(X_1, X_2, ..., X_n, \theta) = e^{-n\theta} \frac{\theta^{\sum_{i=1}^{n} x_i}}{\prod_{i=1}^{n} x_i!}$$
## Définition
On appelle _quantité d'information de Fisher_ $I_n(\theta)$ apporté par un n_ échantillon $(X_1, X_2, ..., X_n)$ sur le paramètre $\theta$:
$$I_n(\theta) = -E(\frac{\sigma^2 * ln(L)}{\sigma \theta^2})$$
# Inégalité de _Frechet - Darmois - Cramer - Rao_ (F.D.C.R)
Soit $T$ un estimateur sans bias de $\theta$.
On a $\boxed{V(T) \geq \frac1{I_n(\theta)}}$
## Méthode de maximan de vraisemblance
Cette méthode consiste, étant donnée un échantillion de valeur $x_1, x_2, ..., x_n$ à prendre comme estimation de $\theta$.
La valeur de $\theta$ qui rend maximale la vraisemblance: $L(X_1, X_2, ..., X_n, \theta)$.
On prends $d$ comme estimation de $\theta$.
La solution de $\boxed{\frac{\sigma}{\sigma \theta} * ln(L(X, \theta)) = 0}$
Où $X = (X_1, X_2, ..., X_n)$
$\frac{\sigma}{\sigma \theta} * ln(L(X, \theta)) = 0$: équation de vraisemblance
Cette équation permet de construire un estimateur de $\theta$, en maximisant la vraisemblance $L(X_1, X_2, ..., X_n)$.
## Remarque
Un estimateur $T$ de $\theta$ est parfait s'il possède les 3 qualités:
- $(i)$ $T$ est sans biais: $E(T) = \theta$
- $(ii)$ $T$ est convergent: $T -^p> \theta$
- $(iii)$ $T$ est efficace: $V(T) = \frac1{I_n(\theta)}$
# TD
## Exo 11
On considère un échantillon $(X_1, X_2, ..., X_n)$ d'une variable aléatoire $X$. Déterminer la vraisemblance de cet échantillon dans les cas suivants:
### $X \rightarrow B(N, P) (p: inconnue)$
$$L(X_1, X_2, ..., X_n, p) = \prod_{i=1}^{N} P(X_i = x_i)$$
$$= \prod_{i=1}^{N} {N\choose x_i} p^{x_i}(1 - p)^{N - x_i}$$
$$L(X_1, X_2, ..., X_n, p) = \frac{(N!)^N}{\prod_{i=1}^{N}(x_i!(N - x_i)!)}p^{\sum_{i=1}^{N}x_i}(1 - p)^{n^2 * \sum_{i=1}^{N}x_i}$$
### $X \rightarrow P(\theta) (\theta: inconnue)$
$$L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n} e^{-\theta} \frac{\theta^{x_i}}{x_i!} = e^{-n\theta} \frac{\theta^{\sum_{i=1}^{n} x_i}}{\prod_{i=1}^{n}x_i!} $$
### $X \rightarrow Expo(\lambda) (\lambda: inconnue)$
La densité de $X$:
$$f(x)\begin{cases} \lambda e^{-\lambda x} & \forall x > 0 \\ 0 & sinon \end{cases}$$
$$L(X_1, X_2, ..., X_n, \lambda) = \prod_{i=1}^{n} f(x_i) = \prod_{i=1}^{n} \lambda e^{-\lambda x} = \lambda^n exp(-lambda \sum_{i=1}^{n}x_i)$$
### $X \rightarrow N(m, \sigma) (m\;ou\;\sigma: inconnue)$
$$L(X_1, X_2, ..., X_n, m, \sigma) = \prod_{i=1}^{n} \frac1{\sigma \sqrt{2\pi}} exp(-\frac12(\frac{x_i - m}{\sigma})^2)$$
$$= \frac1{\sigma^n (2\pi)^{\frac{n}2}} exp(-\frac1{2\sigma^2} \sum_{i=1}^{n} (x_i - m)^2)$$
## Exo 12
Un fabricant d'amplificateur HiFi soumet son amplificateur au test suivant pour s'assurer de leur bon fonctionnement.
Il effectue un prélèvement de $n$ amplificateurs sur chaque série de production.
Il les mets sous tension pendant une durée effective de $t$ heures.
On note $D(t)$ le nombre de pannes de l'un quelconque de ces amplificateurs pendant le temps $t$.
$D(t)$ suit une loi de poisson $P(\lambda t)$($\lambda > 0$ paramètre inconnu)
### 1 - Décrire le $n$ échantillon $(D_1, D_2, ..., D_n)$ associé à cette expérience et donner sa vraisemblance $L(D_1, D_2, ..., D_n, \lambda)$
$D_i \rightarrow P(\lambda t)$ indépendantes.
$(D_1, D_2, ..., D_n)$ contiens le nombre de pannes enregistrées sur chaque amplificateur testé.
$$L(D_1, D_2, ..., D_n, \lambda) = \prod_{i=1}^{n} e^{-\lambda t}\frac{(\lambda t)^{d_i}}{d_i!}$$
### 2 - Déterminer l'estimation de maximum de vraisemblance.
### 3 - Cet estimateur est-il sans biais ?
### 4 - Est-il convergent ?
### 5 - Est-il efficace ?
## Exo 13
On considère une population $X$ qui est distribuée suivant la loi $B(N, P)$ où $P$ est inconnue.
On prélève un échantillon $(X_1, X_2, ..., X_n)$ de $X$.
### 1 - Déterminer la vraisemblance associé à cet échantillon
### 2 - Déterminer l'estimateur du maximum de vraisemblance
### 3 - Cet estimateur est-il sous biais ?
### 4 - Convergent ?
### 5 - Efficace ?