# PRST - Feuille 3
# Exercice du cours
Déterminer les estimateurs des paramètres $m$ et $\sigma$ 2 donnés par la méthode des moments pour une loi normale $N (m, \sigma^2)$.
:::spoiler Solution
$$
E(\lambda) = \frac{1}{\lambda}\\
\lambda = \frac{1}{E(X)}\\
\hat\lambda=\frac{1}{\bar X_n}
$$
$X_n\to^{P.S} \frac{1}{\lambda}$ loi forte des grand normbres
$$
f:x\mapsto\frac{1}{x}, \mathcal C^{\gamma}\\
]0;+\infty[\to\mathbb R
$$
:::
# Exercice 1
Determiner un estimateur convergent et sans biais du parametre $\lambda$ pour la loi de Poisson.
:::spoiler Solution
On sait que:
$$
E(Y) = \lambda
$$
Donc l'estimateur d'ordre 1 de parametre $\lambda$ est:
$$
\hat\lambda = \bar X_n = \frac{1}{n}\sum_{i=1}^nX_i
$$
L'estimateur est **sans biais** et il est fortement convergent par la loi forte des grand nombres.
:::
# Exercice 2
Determiner un estimateur du parametre $\alpha$ pour la loi de Pareto par la methode desmomets (cf. feuille1).
:::spoiler Solution
On sait que $E(X) = \frac{\alpha}{\alpha -1}$
$$
\alpha -1E(X) = \alpha\\
\alpha(E(X)-1) = E(X)\\
\alpha=\frac{E(X)}{E(X) - 1}\\
\bar\alpha\frac{\bar X}{\bar X -1}
$$
:::
# Exercice 3
Determiner un estimateur du parametre $p$ pour une loi geometrique.
:::spoiler Solution
$$
X\sim\mathcal E(p)\\
E(X) = \frac{1}{p}\\
\text{donc } p = \frac{1}{E(X)}\\
\bar p = \frac{1}{X}
$$
:::
# Exercice du cours
1. loi de Pareto de parametre $\alpha$
2. densite $f(x,\alpha)=\alpha x^{-\alpha-1}$ pour $x\gt1$ et $\alpha\gt0$
3. Determiner l'EMV
:::spoiler Solution
$$
\begin{aligned}
L(x_1,...,x_n,\alpha)&=\Pi_{k=1}^nf(x_k,\alpha)\\
&= \Pi_{k=1}^n\alpha x^{-\alpha-1}\\
&= \alpha^n\Pi_{k=1}^nx^{-\alpha-1}\\
\log(x_1,...,x_n,\alpha) &= n\log(\alpha)+\Pi_{k=1}^n\log(xk^{-\alpha-1})\\
&= n\log\alpha-(\alpha-1)\Pi_{k=1}^n\log(xk)\\
\frac{\delta L}{\delta\alpha} &= \frac{n}{\alpha}-\sum_{k=1}^n\log(x_k)\\
\frac{\delta L}{\delta\alpha} = 0 &\Leftrightarrow \frac{n}{\alpha}-\sum_{k=1}^n\log(x_k)\\
&\Leftrightarrow \alpha=\frac{n}{\sum_{k=1}^n\log(x_k)}\\
&\Leftrightarrow \alpha=\frac{1}{\frac{1}{n}\sum_{k=1}^n\log(x_k)}\\
\frac{\alpha^2L}{\delta\alpha}&=-\frac{n}{\alpha^2}\lt0\\
\hat\alpha &= \frac{1}{\frac{1}{n}\sum_{k=1}^n\log(x_k)} \Rightarrow\text{ EMV}
\end{aligned}
$$
:::
# Exercice 6
Soit $X$ une varibale aleatoire suivant une loi uniforme sur $[0,\theta]$.
1. Quelle est la densite de la variable aleatoire $X$ ?
2. Quelle est son esperance ?
3. En deduire un estimateur du parametre $\theta$ par la methode des moments
:::spoiler Solution
1.
$$
f(x,\theta)=
\begin{cases}
\frac{1}{\theta} &\text{si } x\in[0,\theta]\\
0 &\text{sinon}
\end{cases}
$$
2.
$$
E(X) = 0 + \frac{\theta}{2} = \frac{\theta}{2} \Rightarrow \theta=2\times E(X)
$$
3.
$$
\hat\theta=2\bar X
$$
:::