# PRST - Feuille 3 # Exercice du cours Déterminer les estimateurs des paramètres $m$ et $\sigma$ 2 donnés par la méthode des moments pour une loi normale $N (m, \sigma^2)$. :::spoiler Solution $$ E(\lambda) = \frac{1}{\lambda}\\ \lambda = \frac{1}{E(X)}\\ \hat\lambda=\frac{1}{\bar X_n} $$ $X_n\to^{P.S} \frac{1}{\lambda}$ loi forte des grand normbres $$ f:x\mapsto\frac{1}{x}, \mathcal C^{\gamma}\\ ]0;+\infty[\to\mathbb R $$ ::: # Exercice 1 Determiner un estimateur convergent et sans biais du parametre $\lambda$ pour la loi de Poisson. :::spoiler Solution On sait que: $$ E(Y) = \lambda $$ Donc l'estimateur d'ordre 1 de parametre $\lambda$ est: $$ \hat\lambda = \bar X_n = \frac{1}{n}\sum_{i=1}^nX_i $$ L'estimateur est **sans biais** et il est fortement convergent par la loi forte des grand nombres. ::: # Exercice 2 Determiner un estimateur du parametre $\alpha$ pour la loi de Pareto par la methode desmomets (cf. feuille1). :::spoiler Solution On sait que $E(X) = \frac{\alpha}{\alpha -1}$ $$ \alpha -1E(X) = \alpha\\ \alpha(E(X)-1) = E(X)\\ \alpha=\frac{E(X)}{E(X) - 1}\\ \bar\alpha\frac{\bar X}{\bar X -1} $$ ::: # Exercice 3 Determiner un estimateur du parametre $p$ pour une loi geometrique. :::spoiler Solution $$ X\sim\mathcal E(p)\\ E(X) = \frac{1}{p}\\ \text{donc } p = \frac{1}{E(X)}\\ \bar p = \frac{1}{X} $$ ::: # Exercice du cours 1. loi de Pareto de parametre $\alpha$ 2. densite $f(x,\alpha)=\alpha x^{-\alpha-1}$ pour $x\gt1$ et $\alpha\gt0$ 3. Determiner l'EMV :::spoiler Solution $$ \begin{aligned} L(x_1,...,x_n,\alpha)&=\Pi_{k=1}^nf(x_k,\alpha)\\ &= \Pi_{k=1}^n\alpha x^{-\alpha-1}\\ &= \alpha^n\Pi_{k=1}^nx^{-\alpha-1}\\ \log(x_1,...,x_n,\alpha) &= n\log(\alpha)+\Pi_{k=1}^n\log(xk^{-\alpha-1})\\ &= n\log\alpha-(\alpha-1)\Pi_{k=1}^n\log(xk)\\ \frac{\delta L}{\delta\alpha} &= \frac{n}{\alpha}-\sum_{k=1}^n\log(x_k)\\ \frac{\delta L}{\delta\alpha} = 0 &\Leftrightarrow \frac{n}{\alpha}-\sum_{k=1}^n\log(x_k)\\ &\Leftrightarrow \alpha=\frac{n}{\sum_{k=1}^n\log(x_k)}\\ &\Leftrightarrow \alpha=\frac{1}{\frac{1}{n}\sum_{k=1}^n\log(x_k)}\\ \frac{\alpha^2L}{\delta\alpha}&=-\frac{n}{\alpha^2}\lt0\\ \hat\alpha &= \frac{1}{\frac{1}{n}\sum_{k=1}^n\log(x_k)} \Rightarrow\text{ EMV} \end{aligned} $$ ::: # Exercice 6 Soit $X$ une varibale aleatoire suivant une loi uniforme sur $[0,\theta]$. 1. Quelle est la densite de la variable aleatoire $X$ ? 2. Quelle est son esperance ? 3. En deduire un estimateur du parametre $\theta$ par la methode des moments :::spoiler Solution 1. $$ f(x,\theta)= \begin{cases} \frac{1}{\theta} &\text{si } x\in[0,\theta]\\ 0 &\text{sinon} \end{cases} $$ 2. $$ E(X) = 0 + \frac{\theta}{2} = \frac{\theta}{2} \Rightarrow \theta=2\times E(X) $$ 3. $$ \hat\theta=2\bar X $$ :::