---
title: "PRSTA: TD 4"
date: 2021-10-27 14:30
categories: [Image S9, PRSTA]
tags: [Image, S9, PRSTA]
math: true
---
Lien de la [note Hackmd](https://hackmd.io/@lemasymasa/r1J96crSt)
# Feuille 4 Exercice 2
## Partie A
La variable aleatoire $X$ suit une loi de densite:
$$
f(x,\theta)=\theta x^{\theta-1}1_{[0;1]}(x)
$$
ou le parametre $\theta$ est strictement positif.
En d’autres termes, $f(x, \theta) = 0$ si $x \not\in [0; 1]$ et $f(x, \theta) = \theta x^{\theta−1}$ si $x \in [0; 1]$.
1. Justifier que, pour tout $\theta \gt 0$, $f(., \theta)$ definit bien une densite sur $\mathbb R$.
2. Calculer $E(X)$
3. Determiner l’estimateur du maximum de vraisemblance $\hat\theta$ du parametre $\theta$.
4. Considerons maintenant la variable aleatoire $Y := − \ln X$.
1. Pourquoi est-elle bien definie ?
2. Montrer que la variable aleatoire $Y$ suit une loi $\Gamma(1, \theta)$.
:::spoiler Solution
1.
Comme $\theta\gt 0$ et $x\in[0;1]$, $f(x,\theta)$ est strictement positive.
$$
\begin{aligned}
\int_0^1f(x,\theta)&=[x^{\theta}]^1_0\\
&= 1^{\theta}-0 =1
\end{aligned}
$$
On a donc bien une densite.
2.
$$
\begin{aligned}
E(X)&=\int_0^1xf(x,\theta)1_{[0;1]}dx\\
&= \int_0^1\theta x^{\theta}dx\\
&= \biggr[\frac{\theta x^{\theta+1}}{\theta+1}\biggr]\\
&= \frac{\theta}{theta+1}\gt0
\end{aligned}
$$
3.
Considerons:
$$
\begin{aligned}
L(x_1,\dots,x_n,\theta) &= \prod_{i=1}^n\theta x_i^{\theta-1}1_{[0;1]}(x_i)\\
&= \theta^n\prod_{i=1}^nx_i^{\theta-1}\prod_{i=1}^n1_{[0;1]}(x_i)
\end{aligned}
$$
*Pourquoi est-ce que les indicatrices ne posent pas de problemes ?*
> Car nos observations sont entre $0$ et $1$
Pour determiner le maximum, nous pouvons nous restreindre au cas: $(x_1,\dots,x_n)\in[0;1]$ car les $x_i$ sont des observations.
Passons au logarithme:
$$
\ln(L(x_1,\dots,x_n,\theta))=n\ln(\theta)+(\theta-1)\sum_{i=1}^nx_i
$$
Calculons la derivee partielle:
$$
\frac{\partial\ln(x_1,\dots,x_n,\theta)}{\partial\theta}=\frac{n}{\theta}+\sum_{i=1}^n\ln(X_i)\\
\begin{aligned}
\frac{\partial\ln(x_1,\dots,x_n)}{\partial\theta}&=0\\
\Leftrightarrow\theta&=\frac{m}{\sum_{i=1}^n\ln(X_i)}
\end{aligned}
$$
Verifions la conditions du second ordre:
$$
\frac{\partial^2\ln(L(x_1,\dots,x_n,\theta))}{\partial\theta^2}=-\frac{n}{\theta^2}\lt 0\quad \forall \theta\gt 0
$$
:::success
$\hat\theta$ est bien l'EMV!
:::
4.
Question 1.
Elle est bien definie car comme $X\in[0;1]$, $\ln(X)\lt0$ donc $-\ln(X)\gt 0$
2.
*Pourquoi on parle de loi $\Gamma$ au lieu de loi exponentielle ?*
> Car c'est facile d'additionner les loi $\Gamma$.
$$
\begin{aligned}
y&=-\ln x\\
\ln x&=-y\\
x&=e^{-y}
\end{aligned}
$$
On pose $\phi(x)=-\ln(x)$
$$
\phi'(x)=-\frac{1}{x}\\
\phi^{-1}(x)=e^{-x}\\
\begin{aligned}
f_Y(y)&=\color{red}{-}\frac{1}{\phi'(\phi^{-1}(y))}\cdot f(\phi^{-1}(y))\quad\phi'(\phi^{-1}(y))=\color{red}{-}\frac{1}{e^{-x}}\\
&=e^{-y}\cdot\theta\phi^{-1}(y)^{\theta-1}\\
&=e^{-y}\cdot e^{-y(\theta-1)}\\
&=\theta e^{-\theta y}
\end{aligned}
$$
Donc $Y\rightsquigarrow \xi(\theta)=\Gamma(1,\theta)$
:::success
$$
\boxed{\phi_y(t)=\frac{\theta}{\theta-it}}
$$
car fonction caracteristique de la **loi exponentielle**
:::
*Qu'est-ce qu'on a oublie dans notre formule ?*
> La valeur absolue du Jacobien
:::
## Partie B
Considerons $n$ variables aleatoires independantes $X_i$ suivant la loi de $X$. Nous souhaitons tester l’hypothese $H_0 : \theta = \theta_0$ contre $H_1 : \theta = \theta_1$ avec $\theta_0 < \theta_1$ a l’aide d’observations $x_i$ issues de l’echantillon precedent.
1. Nous noterons, dans la suite de l’exercice, $Y_i = − \ln X_i$. Montrer que la statistique de Neyman-Pearson est: $T_n:=\sum_{i=1}^nY_i$
2. Determiner la loi de la variable aleatoire $T_n$ puis celle de la variable aleatoire $U_n:=\frac{T_n}{\theta}$
3. Exprimer les risques de premiere et de seconde espece $\alpha$ et $\beta$ en fonction du seuil $S_{\alpha}$, des parametres $\theta_0$ et $\theta_1$ et de la fonction de repartition de la variable aleatoire $U_n$.
:::spoiler Solution
1.
$$
\begin{aligned}
\frac{L(X_1,\dots,X_n\theta_1)}{L(X_1,\dots,X_n\theta_0)}&=\frac{\prod_{i=1}^n\theta_1x_i^{\theta_1-1}}{\prod_{i=1}^n\theta_0x_i^{\theta_0-1}}\\
&= \biggr(\frac{\theta_1}{\theta_2}\biggr)^n\prod_{i=1}^nX_i^{\theta_1-\theta_0}
\end{aligned}
$$
$(H_0)$ est rejetee si:
$$
\begin{aligned}
T&\gt C_{\alpha}\\
\ln(T_n)=n\ln(\frac{\theta_1}{\theta_0})+(\theta_n-\theta_0)\sum_{i=1}^n\ln(X_i)&\gt\ln(C_{\alpha})\\
\sum_{i=1}^n\ln(X_i)&\gt\underbrace{\frac{\ln(C_{\alpha})-n\ln(\frac{\theta_1}{\theta_0})}{\theta_n-\theta_0}}_{S_{\alpha}'}\\
-\sum\ln(X_i)&\lt -S_{\alpha}'\\
T_n=-\sum_{i=1}^n\ln(X_i)&\lt S_{\alpha}\quad \text{ou } S_{\alpha}=-S_{\alpha}'
\end{aligned}
$$
2.
*Quel loi suit $T_n$ ?*
On sait que $X_i\sim P(1,\theta)$
Donc $\phi_X(t)=\frac{\theta}{\theta-it}$
$$
T_n=\sum_{i=1}^n Y_i
$$
Donc
$$
\phi_{T_n}=(\phi_{Y_i}(t))
$$
car les $Y_i$ sont independants.
:::danger
$$
\boxed{\phi_{T_n}=\biggr(\frac{\theta}{\theta-it}\biggr)^n}
$$
Donc:
- $T_n\sim\Gamma(n, \theta_0)$ sous $(H_0)$
- $T_n\sim\Gamma(n, \theta_1)$ sous $(H_1)$
:::
On va calculer la densite de $U_n$
$$
U_n=\theta T_n\\
\phi:]0;+\infty[\to]0;+\infty[
$$
$\phi$ est derivable et bijective:
$$
\phi^{-1}(x)=\frac{x}{\theta}\quad\text{et}\quad\phi'(x)=\theta\\
\begin{aligned}
f_{U_n}(u)&=\frac{1}{\theta}\times\frac{1}{\Gamma(n)}\biggr(\frac{u}{\theta}\biggr)^{\alpha-1}\theta^{\alpha}e^{-\theta\frac{u}{\theta}}
\end{aligned}
$$
:::danger
$$
f_{U_n}(u)=\frac{1}{\Gamma(n)}u^{\alpha-1}e^{-u}
$$
Donc la loi de $U_n$ ne depend pas de $\theta$
:::
3.
Notons $H_n$ la fonction de repartition de $U_n$.
$$
\begin{aligned}
\alpha&=P(\text{Rejeter }H_0\vert H_0\text{ vraie})\\
&= P(T_n\lt S_{\alpha}\vert H_0\text{ vraie})\\
&= P(\theta_0 T_n\le\theta_0 S_{\alpha}\vert\theta=\theta_0)\\
&= \color{red}{P}(U_n\lt\theta_0 S_{\alpha})\quad\color{red}{\text{Sous } H_0}\\
&= H_n(\theta_0S_{\alpha})
\end{aligned}\\
S_{\alpha}=\frac{H_n^{-1}(\alpha)}{\theta_0}
$$
:::success
$$
H_n(x)=\int_0^x\frac{1}{\Gamma(n)}t^{\alpha-1}e^{-t}dt
$$
Si $x\lt y$ alors:
$$
H_n(y)-H_n(x)=\int_x^y\frac{1}{\Gamma(n)}t^{\alpha-1}e^{-t}dt\gt0
$$
Donc $(H_n)$ est strictement croissante sur $[0;+\infty[$
Par consequence, elle est strictement croissante
:::
$$
\begin{aligned}
\beta &= P(\text{Rejeter } H_1\vert H_0\text{fausse})\\
&= P(T_n\ge S_{\alpha}\vert \theta=\theta_1)\\
&= P(\underbrace{\theta_1 T_n}_{\color{green}{U_n}}\ge S_{\alpha}\theta_1\vert \theta=\theta_1)\\
&= 1-H_n(\theta_1S_{\alpha})
\end{aligned}
$$
:::danger
$$
\boxed{\beta=1-H_n\biggr(\frac{\theta_1}{\theta_0}H_n^{-1}(\color{green}{\alpha})\biggr)}
$$
:::
:::