# ASE2 - Estimation 3
$\bar X$ est un exemple d’estimateur de la moyenne $m=E(X)$ (sert a approximer la moyenne de la population globale)
:::danger
Utile quand on a un parametre inconnu.
:::
:::info
**Definition**:
On appelle variance empirique, la statistique :
$$
S^2=\frac{1}{n}\sum_{i=1}^n(X_i-\bar X)^2
$$
:::
### Proposition
$$
S^2 = \frac{1}{n}\sum_{i=1}^nX_i^2-(\bar X)^2
$$
### Demo
$$
\begin{aligned}
S^2&=\frac{1}{n}\sum_{i=1}^n(X_i-\bar X) = \frac{1}{n}\sum_{i=1}^n(X_i^2 - X_i\bar X+\bar X^2)\\
&= \frac{1}{n}\sum_{i=1}^nX_i^2-2\bar X\sum_{i=1}^nX_i+\frac{n}{n}\bar X^2\\
&= \frac{1}{n}\sum_{i=1}^nX_i^2-2\bar X^2+\bar X=\frac{1}{n}\sum_{i=1}^nX_i^-(\bar X)
\end{aligned}
$$
Montrons que $S^2\to^P\sigma^2$ lorsque $n\to+\infty$
D’après la loi des grands nombres, on a:
$\bar X\frac{1}{n}\sum_{i=1}^nX_i\to^Pm=E(X)$ quand $n\to+\infty$
et $\frac{1}{n}\sum_{i=1}^n\to^PE(X^2)$ quand $n\to+\infty$
Donc $S^2=\frac{1}{n}\sum_{i=1}^nX_i^2-(\bar X)^2\to^PE(X^2)-E^2(X)=\sigma^2=V(X)$
:::warning
$S^2$ est un estimateur de la variance.
:::
:::info
**Definition**
On considère une population $X$, distribuée suivant une loi de probabilité qui dépend d’un paramètre $\theta$ inconnu. On prélève un échantillon $(X_1,X_2,...,X_n)$ de $X$, on appelle estimateur de $\theta$, toute variable aléatoire $T_n$ fonction de l’échantillon:
$$
T_n=f(X_1,X_2,...X_n)
$$
:::
On appelle biais de l’estimateur la quantité $b(T_n)=E(T_n)-\theta$
:::danger
On dit que l’estimateur est sans biais si $b(T_n)=0\Leftrightarrow E(T_n)=\theta$.
:::
Comme exemple $\bar X$ est un estimateur sans biais de $m=E(X)$ puisque $E(\bar X) = m$
:::info
**Definition**
On dit qu’une suite $(T_n)$ d’estimateurs de $\theta$ est asymptotiquement (cad au voisinage de $+\infty$) sans biais et si
$$
lim_{n\to+\infty}(E(T_n))=\theta
$$
:::
On appelle risque quadratique de $T_n$ ou erreur quadratique:
$$
R(T_n)=E((T_n-\theta)^2)
$$
### Propositiom
Le risque quadratique est :
$$
R(T_n) = V(T_n)+(E(T_n)-\theta)^2
$$
### Démonstration
$$
(T_n-\theta)^2=(T_n-E(T_n)+E(T_n)-\theta)^2\\
\begin{aligned}
E((T_n-\theta)^2)&=E((T_n-E(T_n))^2)+2E((T_n-E(T_n))(E(T_n)-\theta))+E((E(T_n)-\theta)^2)\\
&= V(T_n)+2(E(T_n)-\theta)(E(T_n)-E(T_n))+(E(T_n)-\theta)^2\\
\end{aligned}\\
\text{Donc } R(T_n) = V(T_n)+(E(T_n)=\theta)^2
$$
### Remarque
Si l’estimateur est sans biais $b(T_n)=E(T_n)-\theta=0$
Alors $R(T_n)=V(T_n)$
Donc si on a deux estimateurs sans biais du paramètre $\theta$, le plus précis est celui de variance minimale.
:::info
**Definition**
On dit que l’estimateur $T_n$ est convergent si cet estimateur converge en probabilité vers le paramètre $\theta$.
On ecrira $T_n\to^P\theta$ lorsque $n\to+\infty$
:::
:::info
**Definition**
On appelle vraisemblance de $\theta$, la densité de l’échantillon $(X_1,X_2,...,X_n)$:
$$
\begin{cases}
L(x_1,x_2,...,x_n,\theta)=\Pi_{i=1}^nP(X_i=x_i) &\text{(dans le cas discret)}\\
L(x_1,x_2,...,x_n,\theta)=\Pi_{i=1}^nf(x_i) &\text{(dans le cas continu)}
\end{cases}
$$
:::