---
title: Tests classiques
author: Tom Moulard
date: 2020-04-09
rights: © 2020 Tom Moulard
tags: TCOM, Regragui, COVID-19
---
Test Classique
# Rappels de la loi gamma et loi normale
## Loi gamma $\gamma_{r}$
Déf: Soit $X$ une variable aléatoire continue positive. On dit que $X$ suit la loi $\gamma_{r}$ (de paramètre c > e) si sa densité est $f(x) = \frac1{\Gamma (r)} e^{-x} * x^{r-1} \forall x > 0$
Où $$\Gamma (x) = \int_{0}^{\infty} e^{-t}t^{x-1}dt$$ est la fonction gamma
### Propriété de $\Gamma (x)$
- (1) $$\Gamma(x+1) = x \Gamma(c)$$
- (2) $$\Gamma(1) = 1$$
- (3) $$\Gamma(n + 1) = n!$$
- (4) $$\Gamma(k +\frac12) = \frac{1.2.5...2^{k-1}}{2^k}\Gamma(\frac12)$$
- (5) $$\Gamma(\frac12) = \sqrt{\pi}$$
### Calcul de $E(X)$ et de $V(X)$
$$E(X) = \frac1{\Gamma(r)}\int_{0}^{+\infty} x^re^{-x}dx = \frac{\Gamma(r+1)}{\Gamma(r)} = \boxed{r}$$
$$(E(X) = \int_{0}^{+\infty}xf(x)dx)$$
$$E(X^2) = \int_{0}^{+\infty} x^2 f(x)dx = \frac1{\Gamma(r)}\int_{0}^{+\infty} x^{r+1} e^{-x}dx$$
$$E(x^2) = \frac{\Gamma(r + 2)}{\Gamma(r)} = \frac{(r+1)\Gamma(r+1)}{\Gamma(r)} = (r+1)r$$
Donc $$V(X) = E(X^2) - E^2(X)$$
$$= r(r+1) - r^2 = \boxed{r}$$
## Loi _Laplace - Gauss_ (loi normale)
Déf: $X$ suit la loi normale $N(m, \sigma)$ de paramètres $m$ et $\sigma$. Si sa densité est $$F(x) = \frac1{\sigma\sqrt{2\pi}} exp(-\frac12(\frac{x - m}\sigma))$$
$$ \forall x \in \mathbb{R}, m = E(X), \sigma = \sqrt{V(X)}$$
### Variable normale centrée et réduite
Soit $X \rightarrow N(m, \sigma)$
On pose $U = \frac{X - m}\sigma$ variable normale centrée et réduite.
Sa densité est $$\boxed{f(u) = \frac1{\sqrt{2\pi}}e^{-\frac{u^2}2}}$$
$$E(U) = \frac{E(X) - m}\sigma = 0$$
$U$ est centrée.
Montrons que $V(u) = 1$
$$V(u) = E(u^2) - E^2(u) = E(u^2)$$
$$V(u) = \frac1{\sqrt{2\pi}}\int_{0}^{+\infty}u^2e^{-\frac{u^2}2}du$$
$$= \frac2{\sqrt{2\pi}}\int_{0}^{+\infty}u^2e^{-\frac{u^2}2}du$$
Posons $t = \frac{u^2}2 \Rightarrow dt = udu \Rightarrow du = \frac{dt}u \Rightarrow du = \frac{dt}{\sqrt{2\pi}}$
$$V(u) = \frac2{\sqrt{2\pi}}\int_{0}^{+\infty} 2t e^{-t}\frac{dt}{\sqrt{2\pi}}$$
$$= \frac2{\sqrt{2\pi}}\int_{0}^{+\infty}t^{\frac12}e^{-t}dt$$
$$= \frac2{\sqrt{\pi}}\int_{0}^{+\infty}t^{\frac12}e^{-t}dt$$
$$= \frac2{\sqrt{\pi}}\Gamma(\frac32)$$
$$= \frac2{\sqrt{\pi}}\frac12\Gamma(\frac12)$$
$$=\frac{\sqrt{\pi}}{\sqrt{\pi}} = 1$$
$$\boxed{V(u) = 1}$$
### Calcul des moments de la loi $N(0, 1)$
Soit U une V.A. de loi $N(0, 1)$
Déf: On appelle moment d'ordre $k$ de $U$: $$\mu_{k} = E(u^k)=\int_{\mathbb{R}} u^k\frac1{\sqrt{2\pi}}e^{-\frac{u^2}2}du$$
Si $k$ est impair: $k = 2p + 1$$
$$\mu_{2p+1} = \int_{\mathbb{R}} u^{2p+1}\frac1{\sqrt{2\pi}}e^{-\frac{u^2}2}du = 0$$
Si $k$ est pair: $k = 2p$
$$\mu_{2p} = \int_{\mathbb{R}} u^{2p}\frac1{\sqrt{2\pi}}e^{-\frac{u^2}2}du = \frac2{\sqrt{2\pi}}\int_{\mathbb{R}} u^{2p}e^{-\frac{u^2}2}du $$
Posont $t = \frac{u^2}2 \Rightarrow dt = udu$
$$ \Rightarrow du = \frac{dt}{\sqrt{2\pi}}$$
$$\mu_{2p} = \frac2{\sqrt{2\pi}}\int_{0}^{+\infty} (2t)^{p}e^{t}\frac{dt}{\sqrt{2\pi}}$$
$$= \frac{2^p}{\sqrt{\pi}}\int_{0}^{+\infty} (t)^{p-\frac12}e^{t}dt$$
$$= \frac{2^p}{\sqrt{\pi}}\Gamma(p+\frac12)$$
$$= \frac{2^p}{\sqrt{\pi}} \frac{1.3.5...(2p-1)}{2^P}\Gamma(\frac12)$$
$$= 1.3.5...(2p-1) = \frac{(2p)!}{2^pp!}$$
$$\boxed{\mu_{2p} = \frac{(2p)!}{2^pp!}}$$
# Fonctions caractéristiques
Déf: La fonction caractéristique d'une V.A. $X$ est la transformée de Fourer de sa loi de probalilité:
$$\Tau_x(t) = E(exp(it X))$$
Si $X$ est continue:
$$\boxed{\Tau_x(t) = \int_{\mathbb{R}} e^{itx}f(x)dx}$$ (ou $f(x)$ est la densité de $X$)
Si $X$ est discrète:
$$\boxed{\Tau_x(t) = \sum_{k} e^{itk}P(X = k)}$$
Rq:
- (1) $$\Tau_{\lambda X}(t) = \Tau_x(\lambda t) \forall \lambda \in \mathbb{R}$$
- (2) $$\Tau_{x + a}(t) = e^{ita}\Tau_x(t) \forall a \in \mathbb{R}$$
On en déduit en particulier que si $X$ est une V.A. d'espérance $m$ et d'écart-type $\sigma$ en posant:
$$U = \frac{X - m}\sigma$$
$$\boxed{\Tau_{\frac{X - m}\sigma} = e^{-\frac{itm}\sigma}\Tau_x(\frac{t}{\sigma})}$$
Rq: Si $X$ et $Y$ sont indépendants alors $$\boxed{\Tau_{X + Y}(t) = \Tau_X(t) * \Tau_Y(t)}$$
En effet: $$\Tau_{X + Y}(t) ( E(e^{it(X + Y)}))$$
$$=E(e^{itX}.e^{itY})$$
$$=E(e^{itX}).E(e^{itY})$$
$$\Rightarrow \Tau_{X + Y}(t) = \Tau_{X}(t) + \Tau_{Y}(t)$$
Proposition:
$$\Tau_{X}(0) = 1$$ et $$\Tau_{X}^{(k)}(0) = i^kE(X^k)$$
On a: $$\Tau_X(0) = \int_{\mathbb{R}} f(x) dx = 1$$ (on support $X$ continue)
$$\Tau_X(t) = \int_{\mathbb{R}}e^{itx}.f(x)dx$$
$$\Tau_X^{(k)}(t) = \int_{\mathbb{R}}(ix)^ke^{itx}.f(x)dx$$
Si $t=0$
$$\Tau_X^{(k)}(0) = i^k\int_{\mathbb{R}}(X)^kf(x)dx$$
$$\boxed{\Tau_X^{(k)}(0) = i^kE(X^k)}\forall k \in \mathbb{N}$$
### Formule de _Mac-Laurin_
$$\boxed{\Tau_X(t) = \sum_{k=0}^{+\infty} \frac{t^k}{k!}i^kE(X^k)}$$
## Exercice 1
Déterminer les fonctions caractéristiques dans les cas suivants:
### (1) $X \rightarrow B(p) Bernoulli$
$$\Tau_X(t) = E(e^{itX}) = \sum_{k=0}^{1} e^{itk} . P(X = k)$$
$$\Tau_X(t) = P(X = 0) + e^{it}P(X=1)$$
$$\boxed{\Tau_X(t) = q + pe^{it}}$$
### (2) $X \rightarrow B(n, p) Binomiale$
$$X = \sum_{i = 1}^nX_i$$
$$X_i \rightarrow B(p) indépendantes$$
$$\Tau_X(t) = \frac{\Tau_u(t)}{2X_i} = \prod_{i=1}^n\Tau_{X_i}(t)$$
$$\Tau_X(t) = \prod_{i=1}^n(q + pe^{it}) = (q + pe^{it})^n$$
$$\boxed{\Tau_X(t) = (q + pe^{it})^n}$$
### (3) $X \rightarrow P(\lambda) Poisson$
$$P(X = k) = e^{-\lambda}\frac{\lambda^k}{k!}$$
$$\Tau_X(t) = \sum_{k=0}^{+\infty}e^{itk}.P(X=k) = \sum_{k=0}^{+\infty}e^{itk}e^{-\lambda}\frac{\lambda^k}{k!}$$
$$\Tau_X(t) = e^{-\lambda}\sum_{k=0}^{+\infty} \frac{e^{itk}\lambda^k}{k!} = e^{-\lambda}\sum_{k=0}^{+\infty} \frac{(\lambda e^{it})^k}{k!}$$
$$\boxed{\Tau_X(t) = e^{-\lambda} exp(\lambda e^{it})}$$
### (4) $X \rightarrow N(0, 1) Normale$
D'après la formule de _Mac-Laurin_:
$$\Tau_X(t) = \sum_{k=0}^{+\infty} \frac{t^{2k}}{(2k)!}(i)^{2k}\frac{(2k)!}{2^k.k!}$$
$$= \sum_{k=0}^{+\infty} \frac{t^{2k} * (-1)^k}{2^k.k!} = \sum_{k=0}^{+\infty} \frac{(-\frac{t^2}2)^k}{k!}$$
$$\boxed{\Tau_X(t) = e^{-\frac{t^2}2}}$$
### (5) $X \rightarrow U_{[-a, a]} Loi\;uniforme$
$$
\begin{cases}
f(x) = \frac1{2a} &si\;x \in [-a, a]\\
f(x) = 0 &sinon
\end{cases}
$$
$$\Tau_X(t) = \int_{\mathbb{R}}e^{itx}f(x)dx = \frac1{2a}\int_{-a}^{a}e^{itx}dx$$
$$\Tau_X(t) = \frac1{2a}[\frac{e^{itx}}{it}]^a$$
$$\Tau_X(t) = \frac1{2a}(\frac{e^{ita} - e^{-ita}}{it})$$
Or $e^{ita} = cos(at) + i\;sin(at)$ et $e^{-ita} = cos(at) - i\;sin(at)$.
$$\Rightarrow \Tau_X(t) = \frac{2i.sin(at)}{2ait} = \boxed{\frac{sin(at)}{at}}$$
# Convergence en statistique
## Convergence en probabilité
Déf: $X_n$ étant une suite de variables aléatoires réelles. On dit que $X_n$ converge en probabilité vers une variable aléatoire $X$ lorsque pour $\forall \varepsilon > 0$
$$\lim\limits_{x \to +\infty} P (|X_n - X| \geq \varepsilon) = 0$$
Notation:

$$%X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} X$$
### Inégalité de Tchebyshev:
$$\forall \varepsilon > 0$$
$$P (|X_n - E(X_n)| \geq \varepsilon) \leq \frac{V(X_n)}{\varepsilon^2}$$
Remarque:
Si $E(X_n) %\xlongrightarrow[n \rightarrow +\intfy]{} a$ et $V(X_n) %\xlongrightarrow[n \rightarrow +\intfy]{} 0$
Alors:
$$%X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} a$$
Il suffit d'utiliser Tchebyshev:
$$\forall \varepsilon > 0,\;P (|X_n - E(X_n)| \geq \varepsilon) \leq \frac{V(X_n)}{\varepsilon^2}$$
$$\forall \varepsilon > 0,\;P (|X_n - a| \geq \varepsilon) \leq \frac{V(X_n)}{\varepsilon^2} %\xlongrightarrow[n \rightarrow +\intfy]{} 0$$
$$\Rightarrow \lim\limits_{x \to +\infty} P (|X_n - a| \geq \varepsilon) = 0$$
$$% \Rightarrow X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} a$$
## Convergence en moyenne d'ordre $p$
Déf: $X_n$ Converge en moyenne d'ordre $p$ si $$E((X_n - X)^p) %\xlongrightarrow[n \rightarrow +\intfy]{} 0$$
$$si\;p = 2 E((X_n-X)^2) %\xlongrightarrow[n \rightarrow +\intfy]{} 0$$
C'est la convergence en moyenne quadratique:
$$% X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{mq}} X$$
## Convergence en loi
Définition: La suite $X_n$ converge en loi vers la variable $X$ de fonction de répartition $F(x)$ si en tout point de continuité de $F$, la suite $(F_n)$ des fonctions de répartition de $X_n$ converge fers $F$:
$$\lim\limits_{x \to +\infty} F_n(x) = F(x)$$
$\forall x$ un point de continuité de $F$
Notation:
$$% X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{L}} X$$
### Téorème
$X_n$ converge en loi vers $X$ ssi $\lim\limits_{x \to +\infty} \Phi_{X_n}(t) = \Phi_{X}(t)$
Où $\Phi_{X_n}(t)$ est la fonction caractéristique de $X_n$ et $\Phi_{X}(t)$ est la fonction caractéristique de $X$
### Remarque
Si
$$%X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} a \Leftrightarrow X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{L}} a$$
$a$ est une constante.
# Ex2
Une usine fabrique en grand nombre des billes dont le diamètre $X$ suit une loi continue de densité: $$F(x) = \frac1{\sqrt{8\pi}}exp(-(\frac{x-100}{2\sqrt2})^2)$$
## Quelle est la probabilité pour une bille quelconque d'avoir un diamètre dans $[95, 105]$ ?
## Déterminer l'intervalle centré autour de $E(X)$ contentant $82\%$ de la production
## Un premier contrôle permet de répartir la production en 2 lots: $L_1$ et $L_2$.
$L_1$ est l'ensemble des billes de diamètre $X\notin[95, 105]$, dit `lot de rejet`.
$L_2$ est le lot d'acceptation.
Quelle est la probabilité pour qu'une bille soit telle que son diamètre $X \in [95, 102]$:
### Quand elle appartient au lot $L_1$ ?
$$P(x \in [95, 102]/l_1)=0$$
car $A \cap B = \emptyset$
### Quand elle appartient au lot $L_2$ ?
$$P(x \in [95, 102]/l_2)=\frac{P(95\leq X \leq 102)}{P(L_2)}$$
$$P(95\leq X \leq 102) = P(-\frac52 \leq u \leq 1)$$
$$= F(1) - F(-\frac52)$$
$$= F(1) - (1 - F(\frac52))$$
$$= F(1) - 1 + F(2.5)$$
$$= 0.8251$$
$$\Rightarrow P(x \in [95, 102]/l_2) = \frac{0.8251}{0.9876} = \boxed{0.8456}$$
## On extrait de la production totale un échantillon de taille 16, et on note $\Delta$ le diamètre moyen de l'échantillon. Quelle est $P(\Delta > 99)$?
$\Delta=\frac1{n} \sum_{i=1}^{n}X_i$ avec $n=16$, $X_i$ indépendante et même loi que $X$
$$E(\Delta) = \frac1{n}\sum_{i=1}^{n}E(X_i)$$
$$E(\Delta) = \frac{nE(X)}{n} = \boxed{100}$$
$$V(\Delta) = \frac1{n^2} \sum_{i=1}^{n}V(X_i) = \frac1{n^2}nV(X)$$
$$=\frac{V(X)}{n} = \frac{\sigma^2}{16} = \frac4{16} = \frac14$$
$$\Rightarrow \sigma(\Delta) = \frac12$$
$$\Delta \rightarrow N(100, \sigma = \frac12)$$
$$P(\Delta > 99) = 1 - P(\Delta \leq 99)$$
$$= 1 - P(\frac{\Delta - 100}{\frac12} \leq \frac{99 - 100}{\frac12})$$
$$= 1 - P(u \leq -2)$$
$$= 1 - F(-2)$$
$$= F(2)$$
$$= \boxed{0.9772}$$
# Ex3
Un candidat passant un examen est :
- ajourné si sa note est inférieure à 7
- passe un oral si sa note est comprise entre 7 et 12
- est admit si sa note est supérieure à 12.
On suppose que les notes suivent une loi normale : $X \rightarrow N(n=9, \sigma=3)$
## Calculer la probabilité pour qu'un candidat soit ajourné
On cherche $P(X<7)$
$$P(X<7) = P(\frac{X-9}3 \leq \frac{7-9}3)$$
$=P(u \leq -\frac23)$ avec $u=\frac{X-9}3 \rightarrow N(0, 1)$
$$\boxed{P(X<7) = 25.14\%}$$
## Calculer la probabilité pour qu'un candidat passe l'oral
$$P(7\leq X \leq 12) = P(-\frac23 \leq u \leq 1)$$
$$= F(1) - F(-\frac23)$$
$$= F(1) - (1 - F(\frac23))$$
$$= F(1) - 1 + F(\frac23)$$
$$= 0.8413 - 1 + 0.7486$$
$$= \boxed{0.5899}$$
## Calculer la probabilité pour qu'un candidat soit admit sans oral
$$P(X > 12) = 1 - P(X \geq 12)$$
$$= 1 - P(U \geq 1)$$
$$= 1 - F(1)$$
$$= 1 - 0.8413$$
$$= \boxed{0.1587}$$
## Calculer l'intervalle de cente $E(X)$ qui contient $96\%$ des notes
$$I = [E(X) - r, E(X) + r]$$
Tel que $P(X \in I) = 96\%$
$r$: Rayon de $I$
$$P(|X-E(X)| \leq r) = 96\%$$
$$P(\frac{|X-E(X)|}{\sigma} \leq \frac{r}{\sigma}) = 96\%$$
$$P(|u| \leq \frac{r}{\sigma}) = 96\%$$
$$P(-\frac{r}3 \leq |u| \leq \frac{r}3) = 96\%$$
$$F(\frac{r}3) - F(-\frac{r}3) = 96\%$$
$$2F(\frac{r}3) - 1 = 96\%$$
$$F(\frac{r}3) = \frac{1,96}2 = 0.98$$
Table $\Rightarrow \frac{r}3 = 2.05$
$$\Rightarrow r \approx 6.15$$
$$I = [2.85, 15.15]$$
$$\mathcal{X}\xrightarrow{k\rightarrow\infty}\mathcal{Y}$$
$$x \underset{down}{\overset{up}{\longrightarrow}} y$$
# Ex4
Soit $Y$ une Variable aléatoire de densité $g(y) = exp(-y-e^{-y}),\; \forall y \in \mathbb{R}$
## Déterminer la fonction de répartition de $Y$
> Il faut déterminer la primitive de la densité ($g(t)$) entre $-\infty$ et $y$
> Changement de variable: On pose $u = exp(-t)$
Posons $u = e^{-t} \Rightarrow du = -e^{-t}dt$
$$G(y) = \int_{+\infty}^{e^{-y}}e^{-u}(-du) = \int_{e^{-y}}^{+\infty}e^{-u}du$$
$$ = [-e^{-u}]_ {e^{-y}}^{+\infty}$$
$$G(y) = exp(-e^{-y})$$
## Soit $Z=e^{-y}$, Déterminer la fonction de répartition de $Z$, puis sa densité.
$$H(z) = P(Z < z) \forall z> 0$$
$$= P(e^{-Y} < z)$$
$$= P(-Y < ln(z))$$
$$= P(Y > -ln(z))$$
$$= 1 - P(Y \leq -ln(z))$$
$$= 1 - G(-ln(z))$$
$$\boxed{H(z) = 1 - e^{-z}}$$
$H(z)$ fonction de répartition de $Z$. Sa densité est $h(z) = H'(z) = e^{-z} \forall z > 0$.
## Calculer $E(Z)$ et $V(Z)$
> Rappel pour E(Z):l'intégrale de zh(z) entre 0 et +l'infini
> La variance de Z est E(Zau carré)-E(Z) au carré
> On doit trouver 1 pour E(Z)
### $E(Z)$
$$E(Z) = \int_{\mathbb{R}}z.ln(z)dz = \int_{0}^{+\infty}z.e^{-z}dz$$
$$= [z.e^{-z}]_{0}^{+\infty}-\int_{0}^{+\infty}(-e^{-z}dz) = \int_{0}^{+\infty}e^{-z}dz$$
$$= [-e^{-z}]_ {0}^{+\infty} = 1$$
### $V(Z)$
$$V(Z) = E(Z^2) - E^2(Z)$$
$$E(Z^2) = \int_{0}^{+\infty} z^2 h(z)dz = \int_{0}^{+\infty} z^2e^{-z}dz$$
$$E^2(Z) = [-z^2.e^{-z}]_{0}^{+\infty} - \int_{0}^{+\infty} 2z(-e^{-z})dz$$
$$= 2\int_{0}^{+\infty} z.e^{-z}dz = 2.E(Z) = 2$$
$$V(Z) = 2 - 1 = \boxed{1}$$
## ($Z_1$, ..., $Z_n$) un échantillon de $Z$
$Z_i$: V.A. indépendante de même loi qie $Z$
$$\overbar{Z_n} = \frac1{n} \sum_{i=1}^{n}Z_i$$
### Montrer que $\overbar{Z_n} -_ {n \rightarrow +\infty}^{P} > 1$
$$\overbar{Z_n} = \frac1{n}\sum_{i=1}^{n}Z_i, E(\overbar{Z_n}) = \frac{n.E(Z)}{n} = E(Z)$$
$$E(\overbar{Z_n}) = 1, V(\overbar{Z_n}) = \frac1{n^2}\sum_{i=1}^{n}V(Z_i)$$
$$V(\overbar{Z_n}) = \frac1{n^2}n.V(Z) = \frac{V(z){n^2}} = \frac1{n} \rightarrow 0$$
En utilisant l'intégralité de Tchebyshev.
$$\forall \varepsilon > 0, P(|\overbar{Z_n}-E(\overbar{Z_n})|>\varepsilon)<\frac{V(\overbar{Z_n})}{\varepsilon^2}$$
$$P(|\overbar{Z_n} - 1| > \varepsilon) < \frac1{n^2\varepsilon^2} \rightarrow 0$$
Donc $\overbar{Z_n} -_ {n \rightarrow +\infty}^{P}>1$
### Établir que $\overbar{Z_n}$ converge en moyenne quadratique vers une limite que l'on précisera.
On a $E((\overbar{Z_n} - 1)^2) = E((\overbar{Z_n}-E(\overbar{Z_n}))^2)$
$$E((\overbar{Z_n} - 1)^2) = V(\overbar{Z_n}) = \frac1{n} \rightarrow 0$$
Donc $\overbar{Z_n} -_ {n \rightarrow +\infty}^{m.q}> 1$
# Ex5
Soit $X$ une V.A. de loi $\gamma_p$
> Rappel de la loi gamma de paramètre p est f(x)=exp(-x).xpuissance(p-1) divisé par Gamma(p)
>
> $f(x) = \frac{e^(-x)x^{p-1}}{\gamma_p}$
>
> $\gamma_p = (p-1)!$
>
> Pour la fonction caractéristique, il faut calculer l’intégrale de $e^{itx}f(x)$ entre $0$ et $+\infty$.
## Déterminer la fonction caractéristique de $X$
$$\Phi_x(t) = \int_{0}^{+\infty}e^{itx}\frac1{\Gamma(p)}e^{-x}x^{p-1}dx$$
$$= \frac1{\Gamma(p)}\int_{0}^{+\infty}e^{(it -)x}x^{p-1}dx$$
Posons $I_{p-1} = \int_{0}^{+\infty}e^{(it -i)x}x^{p-1}dx$
Intégration par partie:
$$u' = e^{(it-1)x}, v = x^{p-1}$$
$$u = \frac1{it-1}e^{(it-1)x}, v' = (p-1)x^{p-2}$$
$$I_{p-1} = [\frac{e^{(it-1)x}}{it-1}x^{p-1}]_ {0}^{+\infty} - \frac{p-1}{it-1}\int_{0}^{+\infty}x^{p-2}e^{(it-1)x}dx$$
Or $e^{(it -1)x}.x^{p-1} =e^{itx}.e^{x}.x^{p-1} \rightarrow 0$
$$I_{p-1} = - \frac{p-1}{it-1}I_{p-2}, \forall p \geq 2$$
avec $I_{0} = \int_{0}^{+\infty}e^{(it-1)x}dx = [\frac{e^{(it-1)x}}{it-1}] = -\frac1{it-1}$
$$I_{p-1} = -\frac{p-1}{it-1}I_{p-2}$$
$$I_{p-2} = -\frac{p-2}{it-1}I_{p-3}$$
$$...$$
$$I_{2} = -\frac{2}{it-1}I_{1}$$
$$I_{1} = -\frac{1}{it-1}I_{0}$$
En faisant le produit,
$$I_{p-1} = \frac{(-1)^{p-1}(p-1)!I_0}{(it-1)^{p-1}} = \frac{(-1)^{p}(p-1)!}{(it-1)^{p}}$$
$$\Phi_x(t) = \frac1{^Gamma(p)}T_{p-1} = \frac{(-1)^p}{(it-1)^p} = (1-it)^{-p}$$
$$\boxed{\Phi_x(t) = (1-it)^{-p}}$$
## Déterminer la fonction caractéristique de $\frac{X-p}{\sqrt{p}}$
$$\frac{X-p}{\sqrt{p}} = e^{-\frac{itp}{\sqrt{p}}}\Phi(\frac{t}{\sqrt{p}})$$
$$= e^{-\frac{itp}{\sqrt{p}}}(1-it)^{-p}$$
## Montrer que $\frac{X-p}{\sqrt{p}} -_ {n \rightarrow +\infty}^{L}> N(0, 1)$
$$ln(\frac{\Gamma_{x-p}(t)}{\sqrt{p}}) = -\frac{itp}{\sqrt{p}} - p.ln(1-\frac{it}{\sqrt{p}})$$
Or, $ln(1+x) \approx x - \frac{x^2}2$ (à l'ordre 2).
$$ln(\frac{\Gamma_{x-p}(t)}{\sqrt{p}}) = -\frac{itp}{\sqrt{p}} - p(-\frac{itp}{\sqrt{p}} - -\frac{(it)^2}{2p})$$
$$ln(\frac{\Gamma_{x-p}(t)}{\sqrt{p}}) = -\frac{itp}{\sqrt{p}} + \frac{itp}{\sqrt{p}} - \frac{t^2}2 = - \frac{t^2}2$$
$\Rightarrow \frac{\Gamma_{x-p}(t)}{\sqrt{p}} \approx e^{- \frac{t^2}2}$ la fonction caractéristique de $N(0, 1)$
Donc $\frac{X-p}{\sqrt{p}}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$
# Approximation par la loi normale
## Théorème 1
$X_n$ étant une suite de variable binomiale $B(n, p)$.
Alors $\frac{X_n-np}{\sqrt{npq}}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$
## Démo
La fonction caractéristique de la loi $B(n, p)$:
$$\Phi_{x_n}(t) = (pe^{it}+1-p)^n$$
Donc celle de $\frac{X_n-np}{\sqrt{npq}}$ est:
Posons: $Y_n = \frac{X_n-np}{\sqrt{npq}}$
$$\Phi_{Y_n}(t) = e^{-\frac{itnp}{\sqrt{npq}}}\Phi_{X_n}(\frac{t}{\sqrt{npq}})$$
$$\Phi_{Y_n}(t) = e^{-\frac{itnp}{\sqrt{npq}}}(pe^{\frac{it}{\sqrt{npq}}}+1-p)^n$$
$$ln(\Phi_{Y_n}(t)) = -\frac{itnp}{\sqrt{npq}}+n.ln(p(e^{\frac{it}{\sqrt{npq}}} - 1)+1)$$
Or, $ln(1+x) \approx x - \frac{x^2}2$
$$ln(\Phi_{Y_n}(t)) \approx -\frac{itnp}{\sqrt{npq}} + n.(\frac{pit}{\sqrt{npq}} - \frac{t^2}{2nq} + \frac{p^2t^2}{2npq})$$
$$\approx -\frac{itnp}{\sqrt{npq}} + \frac{npit}{\sqrt{npq}} - \frac{t^2}{2q} + \frac{p^2t^2}{2pq}$$
$$\approx - \frac{t^2}{2q}(1-p) = -\frac{t^2}2$$
Donc $ln(\Phi_{Y_n}(t)) \approx -\frac{t^2}2$
$$\Rightarrow ln(\Phi_{Y_n}(t)) \approx e^{-\frac{t^2}2}$$
(fonction caractéristique de $N(0, 1)$)
Donc $Y_n-_ {p \rightarrow +\infty}^{L}>N(0, 1)$
$$\Rightarrow \frac{X_n-np}{\sqrt{npq}} -_ {p \rightarrow +\infty}^{L}>N(0, 1)$$
## Théorème 2
Soit $(X_\lambda)$ une formulle de variable de Poisson $P(\lambda)$ alors:
$$\frac{X_{\lambda}-\lambda}{\sqrt{\lambda}} -_ {p \rightarrow +\infty}^{L}>N(0, 1)$$
## Démo
On a vu que: $\Phi_{X_{\lambda}}(t) = e^{-\lambda}exp(\lambda.e^{it})$
$$\Phi_{X_{\lambda}}(t) = exp(\lambda(e^{it} - 1))$$
Posons $Y_{\lambda} = \frac{X_{\lambda}-\lambda}{\sqrt{\lambda}}$
$$\Phi_{X_{\lambda}}(t) = e^{-\frac{it\lambda}{\sqrt{\lambda}}} \Phi_{X_{\lambda}}(\frac{t}{\sqrt{\lambda}})$$
$$\Phi_{X_{\lambda}}(t) = e^{-\frac{it\lambda}{\sqrt{\lambda}}} exp(\lambda(e^{\frac{it}{\sqrt{\lambda}}} - 1))$$
$$\Phi_{X_{\lambda}}(t) = exp(-\frac{it\lambda}{\sqrt{\lambda}} + \lambda(e^{\frac{it}{\sqrt{\lambda}}} - 1))$$
Or, $e^{\frac{it}{\sqrt{\lambda}}} \approx 1 + \frac{it}{\sqrt{\lambda}} - \frac{t^2}{2\lambda}$
$$\Rightarrow \Phi_{X_{\lambda}}(t) = exp(-it\sqrt{\lambda} + \lambda + \frac{it\lambda}{\sqrt{\lambda}} - \frac{t^2}2 - \lambda))$$
$$\approx exp(- \frac{t^2}2)$$
(fonction caractéristique de $N(0, 1)$)
Donc:
$$\boxed{\frac{X_{\lambda}-\lambda}{\sqrt{\lambda}} -_ {p \rightarrow +\infty}^{L}>N(0, 1)}$$
### Théorème _Central Limite_
$X_n$ une suite de V.A. indépendantes et de même loi d'espérence $m$ et d'écart-type $\sigma$ alors:
$$\frac{X_1 + X_2 + ... + X_n -n * m }{\sigma \sqrt{n}}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$$
Posons $S_n = \sum_{i=1}^{n} X_i,\;E(S_n)=n * m,\;V(S_n) = \sum_{i=1}^{n}V(x_i) = n\sigma^2$
$$\sigma(S_n) = \sigma \sqrt{n}$$
Donc le théorème traduit que:
$$\frac{S_n - E(S_n)}{\sigma(S_n)}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$$
#### Démo
Soit $\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t)$ fonction caractéristique de $\frac{X_i-m}{\sigma\sqrt{n}}$.
$$S_n = \sum_{i=1}^{n} X_i$$
$$D(S_n) = n * m$$
$$\sigma(S_n) = \sigma\sqrt{n}$$
$$\frac{S_n-n * m}{\sigma\sqrt{n}} = \sum_{i=1}^{n} (\frac{X_i-m}{\sigma\sqrt{n}})$$
Donc:
$$\Phi_{\frac{S_n - n * m}{\sigma\sqrt{n}}}(t) = \Phi_{\sum_{i=1}^{n} (\frac{X_i-m}{\sigma\sqrt{n}})}(t) = \prod_{i=1}^{n}\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t)$$
$$\Rightarrow \Phi_{\frac{S_n - n * m}{\sigma\sqrt{n}}}(t) = (\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t))^n$$
Or $E(\frac{X_i - m}{\sigma\sqrt{n}}) = 0$ et $V(\frac{X_i - m}{\sigma\sqrt{n}}) = \frac{V(X_i)}{n\sigma^2}$$
$$= \frac{\sigma^2}{n\sigma^2} = \frac1{n}$$
D'après la formule de _Mac Laurin_ à l'ordre 2:
$$\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t) \approx 1 - \frac{t^2}{2n}$$
Donc:
$$\Phi_{\frac{S_n - n * m}{\sigma\sqrt{n}}}(t) \approx (1 - \frac{t^2}{2n})^n -_ {n\rightarrow +\infty}> e^{-\frac{t^2}{2}}$$
Car $\lim\limits_{n \to +\infty} (1 + \frac{x}{n})^n = e^x$
Or $e^{-\frac{t^2}{2}}$ C'est la fonction caractéristique de la loi normale $N(0, 1)$
Donc $\frac{S_n - E(S_n)}{\sigma(S_n)}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$
# TD
## Exo 6
Soit $X_n$ une suite de V.A. de densité $f_n(x) = \frac{ne^{-nx}}{(1 + e^{-nx})^2}$.
Montrer que $X_n -_ {n \rightarrow +\infty}^{P}> O$
---
$$\forall \varepsilon > 0,\; P(|X_n|\geq \varepsilon) = 1 - P(|X_n| < \varepsilon)$$
$$P(|X_n|\geq \varepsilon) = 1 - P(-\varepsilon < X_n < \varepsilon)$$
$$ = 1 - \int_{-\varepsilon}^{\varepsilon}f_n(x)dx$$
$$ = 1 - \int_{-\varepsilon}^{\varepsilon}\frac{ne^{-nx}}{(1 + e^{-nx})^2}dx$$
$$ = 1 - [\frac{1}{1 + e^{-nx}}]_ {-\varepsilon}^{\varepsilon}$$
$$ = 1 - \frac{1}{1 + e^{-n\varepsilon}} + \frac{1}{1 + e^{n\varepsilon}}$$
$$\lim\limits_{n \to +\infty} P(|X_n| \geq \varepsilon) = 1 - 1 = 0$$
Donc $X_n -_ {n \rightarrow +\infty}^{P}> O$
## Exo 7
Soit $X$ une V.A. suivant la loi exponentielle de la densité:
$$\begin{cases} f(x) = 0 &si\;x \leq 0 \\ f(x) = e^{-x} &si\;x > 0 \end{cases}$$
On considère $X_1$, $X_2$, ..., $X_n$ une suite de V.A. indépendantes de même loi que X.
Soit $U_n = Inf_{i \leq i \leq n} X_i$.
Montrer que $U_n -_ {n \rightarrow +\infty}^{L}> O$
---
Soit $G_n(x)$ la fonction de répartition de $U_n$
$$\begin{cases} si\;x < 0 & G_n(x) = 0 \\ si\;x < 0 & G_n(x) = P(U_n \leq x) \end{cases}$$
$$ G_n(x) = 1 - P(U_n > x)$$
$$ G_n(x) = 1 - P(X_i > x, i \in \{1, ..., n\})$$
$$ G_n(x) = 1 - P(\cap_{i=1}^{n}X_i > x)$$
$$ G_n(x) = 1 - \prod_{i=1}^{n}P(X_i > x)$$
$$ G_n(x) = 1 - \prod_{i=1}^{n}(1 - P(X_i \leq x))$$
$$ G_n(x) = 1 - \prod_{i=1}^{n}(1 - F(x)) = 1 - e^{-nx}$$
Donc $G_n(x) = \begin{cases} 1 - e^{-nx} & si\; x > 0 \\ 0 & si\; x < 0 \end{cases}$
Donc $$\lim\limits_{n \to +\infty} G_n(x) = G_n(x) = \begin{cases} 1 & si\;x > 0 \\ 0 & si\;x < 0 \end{cases}$$
Donc $U_n-_ {N \rightarrow +\infty}^{L}> 0$
## Exo 8
On effectue $n$ tirages avec remise dans une urne contenant 2 boules blanches et 4 boules bleu.
$$\forall i = 1 \rightarrow n,\;X_i = \begin{cases} 1 & Si\;la\;boule\;tirée\;est\;blanche \\ 0 & sinon \end{cases}$$
### 1 - Étudier la convergence en probabilité de $\overbar{X_n} = \frac1{n} \sum_{i=1}^{n} X_i$
$$E(X_i) = p = \frac13$$
$$V(X_i) = pq = \frac29$$
$$E(\overbar{X_n}) = \frac1{n} \sum_{i=1}^{n}E(X_i) = \frac{np}{n} = p = \frac13$$
$$V(\overbar{X_n}) = \frac1{n^2} \sum_{i=1}^{n}V(X_i) = \frac{npq}{n^2} = \frac{pq}{n} = \frac2{9n}$$
$$V(\overbar{X_n}) \rightarrow_{n \rightarrow +\infty} 0$$
En utilisant _Tchebychev_,
$$\forall \varepsilon > 0,\; P(|\overbar{X_n} - \frac13| \geq \varepsilon) \leq \frac{V(\overbar{X_n})}{\varepsilon^2} = \frac2{9n\varepsilon^2}\rightarrow_ {n \rightarrow +\infty} 0$$
Donc $\boxed{\overbar{X_n}-_ {n \rightarrow +\infty}^{P}> \frac13}$
### 2 - Déterminer le nombre minimum $n_0$ de tirages nécessaires pour que $P(|\overbar{X_n} - \frac13| \geq 0.002) \leq 10^{-2}$
> Utiliser _Tchebychev_
En utilisant l'inégalité de Tchebychev:
$$P(|\overbar{X_n} - \frac13| \geq 0.002) \leq \frac{V(\overbar{X_n})}{(0.02)^2} = \frac1{9n(0.002)^2}$$
$$\varepsilon = 0.002$$
On cherche $n$ tel que:
$$\frac1{9n(0.002)^2} \leq 0.01$$
$$\Rightarrow n \geq \frac{10^6}{18}$$
La valeur minimale de $n$ est $\boxed{n_o = 55\;556}$
### 3 - En utilisant le théorème _central - limite_, déterminer une autre valeur $n_1$ répondant à la question précédente.
En utilisant le théorème _central - limite_:
$$\frac{\overbar{X_n} - E(\overbar{X_n})}{\sigma(\overbar{X_n})}-_ {n \ rightarrow +\infty}^{L}> N(0, 1)$$
$$U_n = \frac{\overbar{X_n} - \frac13}{\sqrt{\frac2{3n}}}-_ {n \ rightarrow +\infty}^{L}> N(0, 1)$$
On doit avoir: $P(|U_n| \geq 0.06\sqrt{\frac{n}2}) \leq 0.01$
On note $\Phi$ la fonction de répartition de la loi normale $N(0, 1)$.
Or $P(|U_n| \geq 0.006\sqrt{\frac{n}2}) = 1 - P(|U_n| < 0.006\sqrt{\frac{n}2})$
$$P(|U_n| \geq 0.06\sqrt{\frac{n}2}) = 1 - P(-0.06\sqrt{\frac{n}2} < U_n < 0.06\sqrt{\frac{n}2})$$
$$= 1 - (\Phi(0.06\sqrt{\frac{n}2}) - \Phi(-0.06\sqrt{\frac{n}2}))$$
$$= 1 - (\Phi(0.06\sqrt{\frac{n}2}) - (1 - \Phi(0.06\sqrt{\frac{n}2})))$$
$$= 2 - 2\Phi(0.06\sqrt{\frac{n}2}) \leq 0.01$$
$$\Rightarrow \Phi(0.06\sqrt{\frac{n}2}) > 0.995$$
Table de la loi normale: $\Phi(2.6) \approx 0.995$
$$\Rightarrow 0.06\sqrt{\frac{n}2} \geq 2.6$$
$$\Rightarrow \boxed{n_1 = 3756}$$
**Conclusion**: On fait moins de tirages $n_1 < n_0$ en utilisant le théorème _central - limite_
## Exo 9
La durée de fonctionnement exprimé en jours, d'un certain modèle électronique (composant électronique) est une V.A. continue $D$ dont on connait $E(D) = 600$ et $V(D) = 120\;000$.
Soit $T$ la V.A. égale à la moyenne des durées de fonctionnement de 100 composants de ce modèle.
On suppose que les durées sont indépendantes.
### 1 - Déterminer $E(T)$ et $V(T)$
Soit $D_k$: la durée de fonctionnement du $k^{ieme}$ composants électronique.
$$E(D_k) = 600;\;V(D_k) = 120\:000$$
$$T = \frac1{100}\sum_{k=1}^{100}D_k$$
$$E(T) = \frac{100E(D_k)}{100} = E(D_k) = 600$$
$$V(T) = \frac1{100^2} \sum_{k=1}^{100} V(D_k) = \frac{100V(D_k)}{100^2} = 1200$$
$$\sigma(T) = \sqrt{V(T)} = 20 \sqrt{3}$$
### 2 - Étudier la convergence en loi de la variable $T$
$$S_n = \sum_{k=1}^{n}D_k,\;n=100$$
$$T = \frac{S_n}{n}$$
Les $D_k$ sont indépendants et de même limite
D'après le théorème _central - limite_:
$$\frac{S_n - E(S_n)}{\sigma{S_n}} \approx N(0, 1)$$
$$E(S_n) = 600n,\;V(S_n) = nV(D_k) = n * 120\;000$$
$$\sigma = 200\sqrt{3}\sqrt{n}$$
$$\frac{S_{100} - 60\;000}{2000\sqrt{3}} = \frac{100T - 60\;000}{2000\sqrt{3}} = \frac{T - 600}{20\sqrt{3}} \approx N(0, 1)$$
### 3 - Déterminer le nombre réel positif tel que: $P(|T - 600| > t) = 5\%$
Posons $T\ast = \frac{T - 600}{20\sqrt{3}}$.
Donc $P(|T\ast| > \frac{t}{20\sqrt{3}}) = 0.05$
$$\Rightarrow 1 - P(|T\ast| \leq \frac{t}{20\sqrt{3}}) = 0.05$$
$$\Rightarrow 1 - P(-\frac{t}{20\sqrt{3}} \leq T\ast \leq \frac{t}{20\sqrt{3}}) = 0.05$$
Ce qui donne:
$$1 - (\Phi(\frac{t}{20\sqrt{3}}) - \Phi(-\frac{t}{20\sqrt{3}})) = 0.05$$
$$\Rightarrow 2(1 - \Phi(\frac{t}{20\sqrt{3}})) = 0.05$$
$$\Phi(\frac{t}{20\sqrt{3}}) = 0.975$$
D'après la table de $N(0, 1)$: $\Phi(1.96) = 0.975$
$$\Rightarrow \frac{t}{20\sqrt{3}} = 1.96$$
$$\Rightarrow \boxed{t = 67.9}$$
## Exo 10
Le nombre de pannes, par mois, sur une certaine machine, soit une loi de Poissons $P(\lambda = 3)$.
Un atelier fonctionne avec 12 machines de ce type, indépendantes.
> Poser $X$ le nombre de pannes de l'atelier et $X_i$ le nombre de pannes de la machine numéro $i$.
> $X$ est une somme indépendante de variables de Poisson.
> La loi de $X$ est une variables de Poisson $P(\lambda = 36)$
> Utiliser l'approximation de Poisson par la loi normale.
En un mois, quelle est la probabilité de constater dans cet atelier:
### Plus de 42 pannes ?
Soit $X$ le nombre de pannes dans l'atelier en un mois.
$$X = \sum_{i}^{n} X_i\;(n = 12)$$
Où: $X_i$ nombre de pannes en un mois de la machine $i$.
$$X_i \rightarrow P(3)$$
Les $X_i$ sont indépendants.
Donc $X \rightarrow P(\lambda = 3 * 12 = 36)$
On utilise l'approximation de Poisson par la loi normale:
$$\frac{X - 36}{\sqrt{36}} \ apporx N(0, 1)$$
On Cherche $P(X > 42)$
$$P(X > 42) = P(\frac{X - 36}{6} > \frac{42 - 36}{6})$$
$$U = \frac{X - 36}{6} \ approx N(0, 1)$$
$$P(X > 42) = P(U > 1)$$
$$= 1 - P(U \leq 1)$$
$$= 1 - F(1)$$
$$= 1 - 0.8413$$
$$= \boxed{0.1587}$$
### Entre 36 et 45 pannes ?
$$P(32 \leq X \leq 45) = P(0 \leq \frac{X - 36}{6} \leq \frac{45 - 36}{6})$$
$$= P(0 \leq U \leq \frac32)$$
$$= \Phi(1.5) - \Phi(0)$$
(où $\Phi$: fonction de répartition de $N(0, 1)$)
$$= 0.9332 - 0.5$$
$$= \boxed{0.4332}$$
# Estimation
Le problème central de l'estimation est le suivant: disposant d'observations sur un échantillon de taille $n$: $(X_1, X_2, ..., X_n)$.
On veut en déduire les propriétés de la population $X$ dont il est issu.
On cherche à estimer par exemple la moyenne $m = E(X)$ de la population ou $\sigma^2 = V(X)$ (variance) à partir de la moyenne empirique $\overbar{X}$ d'un échantillon ou à partir de la variance empirique de l'échantillon.
Définition: Une statistique $T$ est une V.A. aléatoire mesurable, fonction de $(X_1, X_2, ..., X_n)$. (échantillon de $X$)
$$T = f(X_1, X_2, ..., X_n)$$
Exemple:
La statistique $\overbar{X} = \frac1{n} \sum_{i=1}^{n} X_i$ s'appelle la moyenne empirique.
$$E(\overbar{X}) = \frac1{n} \sum_{i=1}^{n} E(X_i) = \frac{n * E(x)}{n} = E(X)$$
$$E(\overbar{X}) = E(X) = m$$
$$V(\overbar{X}) = \frac1{n^2} \sum_{i=1}^{n} V(X_i) = \frac{n * \sigma^2}{n^2} = \frac{\sigma^2}{n}$$
D'après _Tchebyshev_: $\forall \varepsilon > 0$
$$P(|\overbar{X} - m| > \varepsilon) < \frac{V(\overbar{X})}{\varepsilon^2} -_ {n \rightarrow +\infty}> 0$$
Donc $\overbar{X} -_ {n \rightarrow +\infty}^{P}> m$
Donc $\overbar{X}$ converge en probabilité vers $m = E(X)$ lorsque $n \rightarrow +\infty$.
On dit alors que $\overbar{X}$ est une estimation de la moyenne $m = E(X)$.
Cette propriété s'appelle _la loi faible des grands nombres_.
Définition: On appelle variance empirique la statistique $S^2 = \frac1{n} \sum_{i=1}^{n} (X_i - \overbar{X})^2$
Proposition:
$$S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - \overbar{X}^2$$
## Démo
$$S^2 = \frac1{n} \sum_{i=1}^{n} (X_i - \overbar{X})^2$$
$$S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - 2X_i\overbar{X} + \overbar{X}^2$$
$$S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - 2\overbar{X}\frac1{n} \sum_{i=1}^{n} X_i + \frac{n\overbar{x}^2}{n}$$
$$\Rightarrow S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - 2\overbar{X}^2 + \overbar{X}^2$$
$$\Rightarrow \boxed{S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - \overbar{X}^2}$$
Montrons que: $S^2-_ {n \rightarrow +\infty}^{P}> \sigma^2$
En effet, d'après la loi des grands nombres: $\overbar{X} = \frac1{n} \sum_{i=1}^{n} X_i -_ {n \rightarrow +\infty}^{P}> m = E(X)$ et $\frac1{n} \sum_{i=1}^{n} X_i^2 -_ {n \rightarrow +\infty}^{P}> E(X^2)$.
Donc $S^2 -_ {n \rightarrow +\infty}^{P}> E(X^2) - E^2(X) = \sigma^2$
$$S^2 -_ {n \rightarrow +\infty}^{P}> \sigma^2 = V(X)$$
On dit que $S^2$ est un estimateur de la varience $\sigma^2 = V(X)$
## Qualité d'un estimateur
Soit $\theta$ le paramètre à estimer et $T$ une estimation de $\theta$.
La $1^{er}$ qualité d'une estimation est d'être convergent: $T -^{P}> \theta$.
On a: $T - \theta = T - E(T) + E(T) - \theta$
Où:
- $T - E(T)$: représente les variations aléatoires de $T$ autour de $E(T)$
- $E(T) - \theta$: représente le biais.
Il est donc souhaitable d'utiliser des estimateurs sans biais:
$$\boxed{E(T) = \theta}$$
### Exemple
$$\overbar{X} = \frac1{n} \sum_{i=1}^{n} X_i$$
$$E(\overbar{X}) = m$$
Donc $\overbar{X}$ est une estimation sans biais de $m$.
## Proposition
Soit $T$ un estimateur de $\theta$.
$$E((T - \theta)^2) = V(T) + (E(T) - \theta)^2$$
$E((T - \theta)^2)$: L'erreur quadratique
### Démo
$$T - \theta = T - E(T) + E(T) - \theta$$
$$E((T - \theta)^2) = E((T - E(T))^2 + 2(E(T) - \theta)(T - E(T)) + (E(T) - \theta)^2) $$
Or $E(T) - \theta$ est constant.
$$E((T - \theta)^2) = V(T) + (E(T) - \theta)^2$$
## Remarque
Si $E(T) = \theta$ ($T$ sans biais):
$$\boxed{E((T - \theta)^2) \approx V(T)}$$
Dans deux estimations sans biais, le plus précis est donc celui de variance maximale.
## Définition
On appelle Vraisemblance de $\theta$, la densité de l’échantillon : $(X_1, X_2, ..., X_n)$ noté :
$$\begin{cases} L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n}P(X_i = x_i) & cas\;discret\\ L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n}f(x_i) & cas\;continu \end{cases}$$
## Exemple
Soit: $X\rightarrow T(\theta)$ variable de Poisson de paramètre $\theta$
Soit $(X_1, X_2, ..., X_n)$ un échantillon de $X\rightarrow T(\theta)$
On a $L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n} P(X_i = x_i)$
Or $P(X_i = x_i) = e^{-\theta} \frac{\theta^{x_i}}{x_i!}$
$$\Rightarrow L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n} e^{-\theta} \frac{\theta^{x_i}}{x_i!}$$
$$\Rightarrow L(X_1, X_2, ..., X_n, \theta) = e^{-n\theta} \frac{\theta^{\sum_{i=1}^{n} x_i}}{\prod_{i=1}^{n} x_i!}$$
## Définition
On appelle _quantité d'information de Fisher_ $I_n(\theta)$ apporté par un n_ échantillon $(X_1, X_2, ..., X_n)$ sur le paramètre $\theta$:
$$I_n(\theta) = -E(\frac{\sigma^2 * ln(L)}{\sigma \theta^2})$$
# Inégalité de _Frechet - Darmois - Cramer - Rao_ (F.D.C.R)
Soit $T$ un estimateur sans bias de $\theta$.
On a $\boxed{V(T) \geq \frac1{I_n(\theta)}}$
## Méthode de maximan de vraisemblance
Cette méthode consiste, étant donnée un échantillion de valeur $x_1, x_2, ..., x_n$ à prendre comme estimation de $\theta$.
La valeur de $\theta$ qui rend maximale la vraisemblance: $L(X_1, X_2, ..., X_n, \theta)$.
On prends $d$ comme estimation de $\theta$.
La solution de $\boxed{\frac{\sigma}{\sigma \theta} * ln(L(X, \theta)) = 0}$
Où $X = (X_1, X_2, ..., X_n)$
$\frac{\sigma}{\sigma \theta} * ln(L(X, \theta)) = 0$: équation de vraisemblance
Cette équation permet de construire un estimateur de $\theta$, en maximisant la vraisemblance $L(X_1, X_2, ..., X_n)$.
## Remarque
Un estimateur $T$ de $\theta$ est parfait s'il possède les 3 qualités:
- $(i)$ $T$ est sans biais: $E(T) = \theta$
- $(ii)$ $T$ est convergent: $T -^p> \theta$
- $(iii)$ $T$ est efficace: $V(T) = \frac1{I_n(\theta)}$
# TD
## Exo 11
On considère un échantillon $(X_1, X_2, ..., X_n)$ d'une variable aléatoire $X$. Déterminer la vraisemblance de cet échantillon dans les cas suivants:
### $X \rightarrow B(N, P) (p: inconnue)$
$$L(X_1, X_2, ..., X_n, p) = \prod_{i=1}^{N} P(X_i = x_i)$$
$$= \prod_{i=1}^{N} {N\choose x_i} p^{x_i}(1 - p)^{N - x_i}$$
$$L(X_1, X_2, ..., X_n, p) = \frac{(N!)^N}{\prod_{i=1}^{N}(x_i!(N - x_i)!)}p^{\sum_{i=1}^{N}x_i}(1 - p)^{n^2 * \sum_{i=1}^{N}x_i}$$
### $X \rightarrow P(\theta) (\theta: inconnue)$
$$L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n} e^{-\theta} \frac{\theta^{x_i}}{x_i!} = e^{-n\theta} \frac{\theta^{\sum_{i=1}^{n} x_i}}{\prod_{i=1}^{n}x_i!} $$
### $X \rightarrow Expo(\lambda) (\lambda: inconnue)$
La densité de $X$:
$$f(x)\begin{cases} \lambda e^{-\lambda x} & \forall x > 0 \\ 0 & sinon \end{cases}$$
$$L(X_1, X_2, ..., X_n, \lambda) = \prod_{i=1}^{n} f(x_i) = \prod_{i=1}^{n} \lambda e^{-\lambda x} = \lambda^n exp(-lambda \sum_{i=1}^{n}x_i)$$
### $X \rightarrow N(m, \sigma) (m\;ou\;\sigma: inconnue)$
$$L(X_1, X_2, ..., X_n, m, \sigma) = \prod_{i=1}^{n} \frac1{\sigma \sqrt{2\pi}} exp(-\frac12(\frac{x_i - m}{\sigma})^2)$$
$$= \frac1{\sigma^n (2\pi)^{\frac{n}2}} exp(-\frac1{2\sigma^2} \sum_{i=1}^{n} (x_i - m)^2)$$
## Exo 12
Un fabricant d'amplificateur HiFi soumet son amplificateur au test suivant pour s'assurer de leur bon fonctionnement.
Il effectue un prélèvement de $n$ amplificateurs sur chaque série de production.
Il les mets sous tension pendant une durée effective de $t$ heures.
On note $D(t)$ le nombre de pannes de l'un quelconque de ces amplificateurs pendant le temps $t$.
$D(t)$ suit une loi de poisson $P(\lambda t)$($\lambda > 0$ paramètre inconnu)
### 1 - Décrire le $n$ échantillon $(D_1, D_2, ..., D_n)$ associé à cette expérience et donner sa vraisemblance $L(D_1, D_2, ..., D_n, \lambda)$
$D_i \rightarrow P(\lambda t)$ indépendantes.
$(D_1, D_2, ..., D_n)$ contiens le nombre de pannes enregistrées sur chaque amplificateur testé.
$$L(D_1, D_2, ..., D_n, \lambda) = \prod_{i=1}^{n} e^{-\lambda t}\frac{(\lambda t)^{d_i}}{d_i!}$$
### 2 - Déterminer l'estimation de maximum de vraisemblance.
### 3 - Cet estimateur est-il sans biais ?
### 4 - Est-il convergent ?
### 5 - Est-il efficace ?
## Exo 13
On considère une population $X$ qui est distribuée suivant la loi $B(N, P)$ où $P$ est inconnue.
On prélève un échantillon $(X_1, X_2, ..., X_n)$ de $X$.
### 1 - Déterminer la vraisemblance associé à cet échantillon
### 2 - Déterminer l'estimateur du maximum de vraisemblance
### 3 - Cet estimateur est-il sous biais ?
### 4 - Convergent ?
### 5 - Efficace ?
## Exo 12
Un fabricant d'amplificateur HiFi soumet son amplificateur au test suivant pour s'assurer de leur bon fonctionnement.
Il effectue un prélèvement de $n$ amplificateurs sur chaque série de production.
Il les mets sous tension pendant une durée effective de $t$ heures.
On note $D(t)$ le nombre de pannes de l'un quelconque de ces amplificateurs pendant le temps $t$.
$D(t)$ suit une loi de poisson $P(\lambda t)$($\lambda > 0$ paramètre inconnu)
### 1 - Décrire le $n$ échantillon $(D_1, D_2, ..., D_n)$ associé à cette expérience et donner sa vraisemblance $L(D_1, D_2, ..., D_n, \lambda)$
$D_i \rightarrow P(\lambda t)$ indépendantes.
$(D_1, D_2, ..., D_n)$ contiens le nombre de pannes enregistrées sur chaque amplificateur testé.
$$L(D_1, D_2, ..., D_n, \lambda) = \prod_{i=1}^{n} e^{-\lambda t}\frac{(\lambda t)^{d_i}}{d_i!}$$
Donc $L(D_1, D_2, ..., D_n, \lambda) = \frac{e^{-n\lambda t} . (\lambda t)^{\sum_{i=1}^{n} d_i}}{\prod_{i=1}^{n} d_i!}$
### 2 - Déterminer l'estimation de maximum de vraisemblance.
$$\frac{\sigma}{\sigma \lambda} ln(L) = 0$$
$$ln(L) = -n \lambda t + (\sum_{i=1}^{n} d_i) ln(\lambda t) - ln(\prod_{i=1}^{n} d_i!)$$
$$\frac{\sigma ln(L)}{\sigma \lambda} = -nt + (\sum_{i=1}^{n} d_i) \frac1{\lambda}$$
$\frac{\sigma ln(L)}{\sigma \lambda} = 0 \Rightarrow \^{\lambda} = \frac1{nt} \sum_{i=1}^{n} d_i$ estimation ponctuelle de $\lambda$.
Et $\boxed{T = \frac1{nt} \sum_{i=1}^{n} D_i}$ l'estimation de $\lambda$.
### 3 - Cet estimateur est-il sans biais ?
Montrons que $E(T) = \lambda$
On a $\begin{cases} E(T) = \frac1{nt} \sum_{i=1}^{n} E(D_i) = \frac{n \lambda t}{nt} = \lambda \\ E(T) = \lambda \Rightarrow Test\;sans\;biais \end{cases}$
### 4 - Est-il convergent ?
$$V(T) = \frac1{n^2t^2} \sum_{i=1}^{n} V(D_i) = \frac{n \lambda t}{n^2t^2} = \frac{\lambda}{nt}$$
$$V(T) = \frac{\lambda}{nt} -_ {n \rightarrow +\infty}> 0$$
En utilisant _Tchebychev_ $\forall \varepsilon > 0$
$$P(|T - \lambda| > \varepsilon) < \frac{V(T)}{\varepsilon^2} = \frac{\lambda}{nt\varepsilon^2} -_ {n \rightarrow +\infty}> 0$$
$$= \lim\limits_{n \to +\infty} P(|T - \lambda| > \varepsilon) = 0$$
Donc $T -_ {n \rightarrow +\infty}^{P}> \lambda$
### 5 - Est-il efficace ?
On calcule l'information de _Fisher_:
$$I_n(\lambda) = - E\left(\frac{\sigma^2 ln(L)}{\sigma \lambda^2}\right)$$
$$\frac{\sigma ln(L)}{\sigma \lambda} = -nt + \frac{\sum_{i=1}^{n} d_i)}{\lambda}$$
$$\frac{\sigma^2 ln(L)}{\sigma \lambda^2} = -\frac1{\lambda^2} + \sum_{i=1}^{n} d_i$$
$$I_n(\lambda) = - E\left(\frac{\sigma^2 ln(L)}{\sigma \lambda^2}\right) = - E\left(-\frac1{\lambda^2} + \sum_{i=1}^{n} d_i\right)$$
$$I_n(\lambda) = \frac1{\lambda^2} \sum_{i=1}^{n} E(d_i) = \frac{n \lambda t}{\lambda^2} = \frac{nt}{\lambda}$$
Donc $\boxed{I_n(\lambda) = \frac{nt}{\lambda}}$ l'information de _Fisher_
Or $V(T) = \frac{\lambda}{nt} = \frac1{I_n(T)}$
Donc $T$ est efficace.
## Exo 13
On considère une population $X$ qui est distribuée suivant la loi $B(N, P)$ où $P$ est inconnue.
On prélève un échantillon $(X_1, X_2, ..., X_n)$ de $X$.
### 1 - Déterminer la vraisemblance associé à cet échantillon
$$L(x_1, x_2, ..., x_n) = \prod_{i=1}^{n} {N \choose x_i} p^{x_i} (1 - p)^{N - x_i}$$
$$= \frac{(N!)^n}{\prod_{i=1}^{n} x_i! (N - x_i)!} . P^{\sum_{i=1}^{n} x_i} . (1 - p)^{nN - \sum_{i=1}^{n} x_i}$$
### 2 - Déterminer l'estimateur du maximum de vraisemblance
$$\frac{\sigma ln(L)}{\sigma P} = 0$$
$$ln(L) = ln(\frac{(N!)^n}{\prod_{i=1}^{n} x_i! (N - x_i)!}) + \sum_{i=1}^{n} x_i ln(p) + (nN- \sum_{i=1}^{n} x_i) ln(1 - p)$$
$$\frac{\sigma ln(L)}{\sigma P} = \frac1{p} \sum_{i=1}^{n} x_i - \frac1{1 - p}(nN - \sum_{i=1}^{n} x_i)$$
$$\frac{\sigma ln(L)}{\sigma P} = 0 \Rightarrow \^{p} = \frac1{nN} \sum_{i=1}^{n} x_i$$ (estimation ponctuelle de $p$)
Et $\boxed{T = \frac1{nN}\sum_{i=1}^{n}X_i}$ estimateur de $p$.
### 3 - Cet estimateur est-il sans biais ?
$$E(T) = \frac1{nN} \sum_{i=1}^{n} E(X_i) = \frac{nNp}{nN} = p$$
$\boxed{E(T) = p}$ sans biais.
### 4 - Convergent ?
$$V(T) = \frac1{(nN)^2}\sum_{i=1}^{n} V(X_i)$$
Donc $V(T) = \frac1{(nN)^2}\sum_{i=1}^{n}N_p(1 - p) = \frac{nNp(1 - p)}{(nN)^2}$
$$\boxed{V(T) = \frac{p(1 - p)}{nN}}$$
D'après _Tchebyshev_ $\forall \varepsilon > 0$
$$P(|T - p| > \varepsilon) < \frac{V(T)}{\varepsilon^2} = \frac{p(1 - p)}{nN\varepsilon^2} -_ {n \rightarrow +\infty}> 0$$
Donc $T -_ {n \rightarrow +\infty}^{P}> p$
### 5 - Efficace ?
$I_n(p) = -E\left(\frac{\sigma^2 ln(L)}{\sigma p^2}\right)$: informateur de _Fisher_
$$\frac{\sigma ln(L)}{\sigma p} = \frac1{p} \sum_{i=1}^{n} x_i - frac1{1 - p} (nN - \sum_{i=1}^{n} x_i) $$
$$\frac{\sigma^2 ln(L)}{\sigma p^2} = -\frac{1}{p^2} \sum_{i=1}^{n} X_i - \frac{1}{(1 - p)^2}(nN - \sum_{i=1}^{n} x_i)$$
Donc :
$$I_n(p) = \frac{1}{p^2} \sum_{i=1}^{n} E(X_i) + \frac{1}{(1 - p)^2} (nN - \sum_{i=1}^{n} E(X_i))$$
$$\Rightarrow I_n(p) = \frac{nNp}{p^2} + \frac{nN + nNp}{(1 - p)^2}$$
$$\Rightarrow I_n(p) = \frac{nN}{p} + \frac{nN}{1 - p}$$
$$\Rightarrow \boxed{I_n(p) = \frac{nN}{p(1 - p)}}$$
Or :
$$V(T) = \frac{p(1 - p)}{nN} = \frac{1}{I_n(p)}$$
Donc $T$ est efficace.
## Exo 4
Soient $T_1$ et $T_2$ 2 estimateurs d'un paramètre $\theta$, sans biais et indépendants de variance respectives $V_1$ et $V_2$.
Soient $T_3 = aT_1 + (1 - a)T_2\;(a \in \mathbb{R})$
### 1 - Montrer que $T_3$ est sans biais
$$T_3 = aT_1 + (1 - a)T_2$$
$$E(T_3) = aE(T_1) + (1 - a)E(T_2)$$
$$= a\theta + (1 - a)\theta = \theta$$
$$\boxed{T_3 = \theta}$$
$T_3$ est sans biais.
### 2 - Déterminer $a$ de façon que $T_3$ soit de variance minimale
$$V(T_3) = V_3 = a^2V(T_1) + (1 - a)^2V(T_2)$$
$$V_3 = a^2V_1 + (1 - a)V_2$$
$$\frac{d^2V_3}{da} = 0 \Rightarrow 2aV_1 - 2(1 - a)V_2 = 0$$
$$\Rightarrow \boxed{a = \frac{V_2}{V_1 + V_2}}$$
Or $\frac{d^2V_3}{da^2} = 2V_1 + 2V_1 > 0$
Donc $V_3$ est minimum pour $a = \frac{V_2}{V_1 + V_2}$
### 3 - $T_1$ et $T_2$ peuvent-ils être efficaces tous les deux ?
Si $T_1$ et $T_2$ sont efficaces alors :
$$V_1 = V_2 = \frac{1}{I_n(\theta)}$$
(borne minimale)
Donc :
$$V_3 = V(T_3) = \left(\frac{V_2}{V_1 + V_2}\right)^2V_1 + \left(1 + \frac{V_2}{V_1 + V_2}\right)^2V_2$$
$$\Rightarrow V_3 = \frac{V_1V_2}{V_1+V_2} = \frac{V_1^2}{2V_1} = \frac{1}{2I_n(\theta)}$$
Donc $V_3 = \frac{1}{2I_n(\theta)}$ ce qui est impossible car $V_3 \geq \frac{1}{2I_n(\theta)}$ (borne inférieure)
Conclusion: $T_1$ et $T_2$ ne sont pas efficaces.
## Exo 5
Un générateur de nombres au hasard compris entre $0$ et $1$ peut être victime de perturbations.
Le résultat obtenu sera donc une variable aléatoire $X$ qui sera de loi uniforme sur $[0, 1]$ avec une probabilité $p\;(0 < p < 1)$ et de loi uniforme sur $[0, 2]$ avec une probabilité $1 - p$ où $p$ est un paramètre inconnu.
Soit $(X_1, X_2, ..., X_n)$ un échantillon de $X$
Soit $Y \begin{cases}1 & si\;x_i \leq 1 \\ 0 & sinon\end{cases} (1 \leq i \leq n)$
### 1 - Déterminer la loi des $Y_i\; (1 \leq i \leq n)$
$Y_i$ suit une loi de _Bernoulli_ de paramètre $\theta = P(Y_i = 1) = P(X_i \leq 1)$
$$P(Y_i = 1) = p + \frac12(1 - p) = \frac{1 + p}{2}$$
car $F(X) = P(X \leq x) = \frac{x}{a}\;(si X \rightarrow U[0, a])$: fonction de répartition de $X$
#### 1 - En déduire celle de $S_n = \sum_{i=1}^{n} Y_i$
$$P(Y_i = 1) = \theta = \frac{1 + p}{2}$$
$$\forall i$$
$S_n = \sum_{i=1}^{n} Y_i$: Somme indépendante de _Bernoulli_ $B(\theta)$
Donc $S_n \rightarrow B(n, \theta)$
$$\boxed{\theta = \frac{1 + p}{2}}$$
#### 2 - Que représente la valeur de $S_n$ ?
$S_n$: représente le nombre de valeurs comprises entre $0$ et $1$.
### 2 - Calculer $E(\overbar{Y_n})$ où $\overbar{Y_n} = \frac{S_n}{n}$
$$E(\overbar{Y_n}) = E(\frac{S_n}{n}) = \frac{1}{n}E(s_n) = \frac{n\theta}{n} = \theta$$
$$\boxed{E(\overbar{Y_n}) = \theta}$$
$$E(\overbar{Y_n}) = \theta = \frac{1 + p}{2}$$
#### 1 - En déduire un estimateur $\^{P_n}$ de $p$
$$\Rightarrow p = 2 E(\overbar{Y_n}) - 1$$
$$\Rightarrow p = E(2\overbar{Y_n} - 1)$$
Posont $\^{P_n} = 2\overbar{Y_n} - 1$ avec $E(\^{P_n}) = p$
$\^{P_n}$ est dans biais
#### 2 - Montrer que $\^{P_n} -_ {n \rightarrow +\infty}^{P}> p$
$$V(\^{P_n}) = 4V(\overbar{Y_n}) = 4V(\frac{S_n}{n})$$
$$= \frac{4}{n^2} V(s_n) = \frac{4}{n^2} \theta(1 - \theta)$$
(car $S_n \rightarrow B(n, \theta)$)
$$V(\^{P_n}) = \frac{4\theta(1 - \theta)}{n} = \frac{1 - p^2}{n} -_ {n \rightarrow +\infty}> 0$$
Donc d'après _Tchebyshev_:
$$\forall \varepsilon > 0,\;P(|\^{P_n} - p| > \varepsilon) < \frac{V(\^{P_n})}{\varepsilon^2} -_ {n \rightarrow +\infty}> 0$$
Donc $\^{P_n} -_ {n \rightarrow +\infty}> p$
### 3 - Si on note $f_1$ et $f_2$ les densités respectives de la loi uniforme sur $[0, 1]$ et $[0, 2]$, montrer que la densité $f$ de $X$ est: $f(X) = pf_1(X) + (1 - p)f_2(X)$
$$F(X) = P(X \leq x) = P((X \leq x) \cap (X \rightarrow U[0, 1])) + P((X \leq x) \cap (X \rightarrow U[0, 2]))$$
$$F(X) = P(X \leq x / X \rightarrow U[0, 1]).P(X \rightarrow U[0, 1]) + P(X \leq x / X \rightarrow U[0, 2]).P(X \rightarrow U[0, 2])$$
$$\boxed{F(X) = pF_1(X) + (1 - p)F_2(X)}$$
Où:
$F_1$: fonction de répartition de $X$ sur $[0, 1]$
$F_2$: fonction de répartition de $X$ sur $[0, 2]$
En dérivant la fonction:
$$F(X) = pF_1(X) + (1 - p)F_2(X)$$
$$\Rightarrow f(X) = F'(X) = pF'_ 1(X) + (1 - p)F'_ 2(X)$$
Donc:
$$f(X) = \begin{cases}\frac{1 + p}{2} & si\;0 \leq x \leq 1 \\ \frac{1 - p}{2} & si\;0 \leq x \leq 2\end{cases}$$
### 4 - Calculer $E(X)$ et $V(X)$
$$E(X) = \frac{1 + p}{2} \int_{0}^{1} x dx + \frac{1 - p}{2} \int_{1}^{2} x dx$$
$$= \frac{1 + p}{4} + \frac{3 - 3p}{4} + \boxed{1 - \frac{p}{2}}$$
$$E(X^2) = \frac{1 + p}{2} \int_{0}^{1} x^2 dx + \frac{1 - p}{2} \int_{1}^{2} x^2 dx$$
$$\boxed{E(X^2) = \frac{4 - 3p}{3}}$$
Donc:
$$\boxed{V(X) = \frac{1}{3} - \frac{p^2}{4}}$$
### 5 - Écrire l'expression de la vraisemblance de l'échantillon $(X_1, X_2, ..., X_n)$ en facteurs de $s_n = \sum_{i=1}^{n} y_i$
$$L(X_1, X_2, ..., X_n, p) = \prod_{i=1}^{n} (\frac{1}{2}(1 + p)\Lambda_{[0, 1]}(x_i) + \frac{1}{2}(1 + p)\Lambda_{[1, 2]}(x_i))$$
où $\Lambda_{[0, 1]}(x_i) = \begin{cases}1 & si\;x_i \in [0, 1] \\ 0 & sinon\end{cases}$: fonction indicatrice de $[0, 1]$
et $\Lambda_{[1, 2]}(x_i)$: fonction indicatrice de $[1, 2]$
$$\Rightarrow L(X_1, X_2, ..., X_n, p) = \left(\frac{1 + p}{2}\right)^{S_n} . \left(\frac{1 - p}{2}\right)^{n - S_n}$$
$$\boxed{L = \frac{1}{2^{n}}(1 + p)^{S_n}(1 - p)^{n - S_n}}$$
### 6 - Déterminer l'information de _Fisher_$I_n(p)$
$$ln(L) = S_n.ln(1 + p) + (n - S_n)ln(1 - p) - n. ln(2)$$
$$\frac{\sigma ln(L)}{\sigma p} = \frac{S_n}{1 + p} - \frac{n - S_n}{1 - p}$$
$$\frac{\sigma^2 ln(L)}{\sigma p^2} = -\frac{S_n}{(1 + p)^2} - \frac{n - S_n}{(1 - p)^2}$$
$$I_n(p) = -E(\frac{\sigma^2 ln(L)}{\sigma p^2}) = \frac{E(S_n)}{(1 + p)^2} + \frac{n - E(S_n)}{(1 - p)^2}$$
$$I_n(p) = \frac{n\theta}{(1 + p)^2} + \frac{n - n\theta}{(1 - p)^2}$$
#### 1 - $\^{P_n}$ est-il efficace ?
$$I_n(p) = \frac{n\theta}{(1 + p)^2} + \frac{n - n\theta}{(1 - p)^2}$$
Or: $\theta = \frac{1 + p}{2}$
$$\Rightarrow \boxed{I_n(p) = \frac{n}{1 - p^2}}$$
Or: $V(\^{P_n}) = \frac{1 - p^2}{n} = \frac{1}{I_n(p)}$
Donc $\^{P_n}$ est efficace
## Exo 6
Soit $X$ une variable aléatoire de densité $f(X) = \begin{cases}\frac{3X^2}{\theta^3} & si\; 0 < x < \theta \\ 0 & sinon\end{cases}$
$\theta$: paramètre $>0$, inconnu
$(X_1, X_2, ..., X_n)$ un échantillon de $X$
### 1 - Déterminer la fonctione de répartition de $X$
$$\begin{cases}F(X) = 0 & si\; X \leq \theta \\ F(X) = 1 & si\; X \geq \theta\end{cases}$$
Si $0 < X < \theta$, $F(X) = \frac{3}{\theta^3} \int_{0}^{x} t^2 t = \frac{3}{\theta^3} [\frac{t^3}{3}]_ {0}^{x}$
$$\boxed{F(X) = \frac{X^3}{\theta^3}}$$
### 2 - Calculer $E(X)$ et $V(X)$
$$E(X) = \int_{0}^{\theta} xf(x) dx = \int_{0}^{\theta} \frac{3}{\theta^2} x^3 dx = \frac{3\theta}{4}$$
$$E(X^2) = \int_{0}^{\theta} x^2f(x) dx = \frac{3\theta^2}{5}$$
$$V(X) = E(X^2) - E^2(X) = \frac{3\theta^2}{80}$$
### 3 - Déterminer un estimateur $T_n$ de $\theta$ constant par la méthode des moments
$$E(X) = \frac{3}{4}\theta \Rightarrow \theta = \frac{4}{3} E(X) = E(\frac{4X}{3})$$
Posons $T_n = \frac{4}{3} \overbar{X_n}$ où $\overbar{X_n} = \frac{1}{4}\sum_{i=1}^{n} X_i$
$$E(T_n) = \frac{4}{3} E(\overbar{X_n}) = \frac{4}{3} . \frac{3}{4}\theta = \theta$$
Donc $T_n$ est sans biais.
#### 1 - Montrer qu'il converge vers $\theta$
$$V(T_n) = V(\frac{4}{3} \overbar{X_n}) = \frac{16}{9} V(\overbar{X_n})$$
$$= \frac{16}{9} \frac{1}{n^2} \sum_{i=1}^{n} V(X_i) = \frac{16}{9} \frac{nV(X)}{n^2}$$
$$= \frac{16}{9n} V(X)$$
$$= \frac{16}{9n}.\frac{3}{80}\theta^2$$
$$= \boxed{\frac{\theta^2}{15n}}$$
Or $V(T_n) -_ {n \rightarrow +\infty}> 0$
D'après _Tchebyshev_: $T_n -_ {n \rightarrow +\infty}^{P}> \theta$$
### 4 - Déterminer la loi limite de $T_n$
D'après le théorème _constante - limite_:
$$\frac{\overbar{X_n} - E(X)}{\frac{\sigma(X)}{\sqrt{n}}} -_{n \rightarrow +\infty}^{L}> N(0, 1)$$
$$\frac{\sqrt{v}(\overbar{X_n} - E(X))}{\sigma(x)} = \frac{\sqrt{v}(T_n - \frac{4.E(X)}{3})}{\frac{4\sigma(x)}{3}}$$
$$= \frac{\sqrt{v}(T_n - \theta)}{\frac{\theta}{\sqrt{15}}} -_ {n \rightarrow +\infty}> N(0, 1)$$
#### 1 - En déternimer un intervalle de confiance de niveau $1 - \alpha$ pour $\theta$
$$( * )\;P(-u < \frac{\sqrt{v}(T_n - \theta)}{\frac{\theta}{\sqrt{15}}} < u) = 1 - \alpha$$
$$\Rightarrow 2\Phi(u) - 1 = 1 - \alpha$$
$$\Phi(u) = 1 - \frac{\alpha}{2}$$
#### 2 - Application : $\alpha = 0.05,\; n = 240\;et\;\overbar{X_{240}} = 2.94$
$$\Phi(u) = 1 - \frac{\alpha}{2} \Rightarrow u = 2\;(si\;\alpha = 0.05)$$
On isole $\theta$ à partir de $( * )$:
$$-\frac{u\theta}{\sqrt{15n}} < T_n \theta < \frac{u\theta}{\sqrt{15n}}$$
$$\boxed{\frac{T_n}{1 + \frac{u}{\sqrt{15n}}} < \theta \frac{T_n}{1 - \frac{u}{\sqrt{15n}}}}$$
$$\boxed{3.79 < \theta < 4.06}$$