# PRST - Feuille de revisions
# Exercice 1
## Question 10
:::warning
Cet exercice est aussi present sur la feuille pour le 17/03/2021
:::
La loi du *demi-cercle* de Wigner de parametre $R$ a une densite nulle en dehors de $] β R; R[$. Sur $] β R; R[$, sa densite est donnee par
$$
f(x)=\frac{2}{\pi R^2}\sqrt{R^2-x^2}
$$
Nous admettrons que sa variance est donnee par $\frac{R^2}{4}$.
En deduire un estimateur du parametre $R$ par la methode des moments.
:::spoiler Solution
$$
V(X)=\frac{R^2}{4}\\
\Leftrightarrow R^2=4V(X)\\
\Leftrightarrow R=2\sqrt{V(X)}
$$
:::success
Donc:
$$
\hat R=2\sqrt{S^2}
$$
:::
$$
S=\frac{1}{n-1}\sum_{i=1}^n(X_i-\bar X)^2
$$
On sait que $E(X)=0$ (symetrie).
En effet, $E(X)=\int_{-R}^Rx\times\frac{2}{\pi R^2}\sqrt{R^2-x^2}dx=0$.
La fonction devient impaire car $\times x$.
On integre une fonction impaire sur l'intervalle $] β R; R[$.
$V(X)=E(X^2)$ donc $E(X^2)=\frac{R^2}{4}$
$$
R=2\sqrt{E(X)}\Rightarrow\hat R=2\sqrt{\frac{1}{n}\sum_{i=1}^nx_i^2}
$$
:::
## Question 11
Soient $X$ et $Y$ deux variables aleatoires independantes et suivant toutes deux une loi normale centree reduite.
Considerons les variables aleatoires $U = X + 2Y$ et $V = X β 3Y$
1. Montrer que le vecteur aleatoire $(U, V )^T$ est un vecteur gaussien.
2. Les variables aleatoires U et V sont-elles independantes ?
:::spoiler Solution
1.
$X$ et $Y$ sont independants $\Rightarrow(X,Y)^T$ vecteur gaussien
$$
\begin{pmatrix}
U\\
V
\end{pmatrix}=
\begin{pmatrix}
1 & 2\\
1&-3
\end{pmatrix}
$$
:::success
$(U,V)^T$ gaussien comme image d'un vecteur gaussien comme application lineaire
:::
2.
:::warning
On calcule la covariance et $Cov(U,V)=0$
:::
$$
\begin{aligned}
Cov(X)&=E(UV)-\underbrace{E(U)E(V)}_{=0}\\
&= E((X+2Y)(X-3Y))\\
&= E(X^2-3XY+2XY-6Y^2)\\
&= E(X^2)+\underbrace{E(XY)}_{=0}-6E(Y^2)\\
&= E(X^2)-6E(Y^2)\text{ car } V(X)=E(X^2)=1\\
&=1-6=\color{green}{5}
\end{aligned}
$$
:::success
Donc elles ne sont **pas** independantes.
:::
:::
# Exercice 5
La variable aleatoire $X$ suit une loi uniforme sur $[0;\theta]$ avec $\theta$ inconnu.
Sa densite est par definition donnee par $f(x,\theta)=\frac{1}{\theta}π_{[0;\theta]}(x)$ i.e. $f(x,\theta)=1$ si $0\le x\le\theta$ sinon.
1. Montrer que sa densite peut etre ecrite $f(x,\theta)=\frac{1}{\theta}π_{[0;1]}(\frac{x}{\theta})$
2. En deduire que la fonction de vraisemblance definie sur $[0;+\infty[\times]0;+\infty[$ s'ecrit:$$L(x_1,...,x_n,\theta)=\begin{cases}\frac{1}{\theta^n}&\text{si} \max x_i\le\theta \\ 0&\text{sinon}\end{cases}$$ ou encore $$L(x_1,...,x_n,\theta)=\frac{1}{\theta^n}π_{[\max 1\le i\le n;+\infty]}(\theta)$$
3. En deduire lβestimateur du maximum de vraisemblance du parametre $\theta$
4. Quelle loi suit la v.a. $\frac{X_1}{\theta}$
5. On pose $$T=\max_{1\le i\le n}\frac{X_i}{\theta}$$. Determiner sa fonction de repartition $F_T$
6. Montrer que $\mathbb P(\alpha\le T\le1)=1-\alpha^n$
7. En deduire un reel $\alpha$ tel que $\mathbb P(T\in[\alpha;1])=0,95$
8. Considerons des observations $x_1,...,x_n$. Notons $$M=\max_{1\le i\le n}x_i$$. Deduire des questions precedentes un intervalle de confiance pour le parametre $\theta$ de niveau de confiance 0, 95.
:::spoiler Solution
1.
$$
\begin{aligned}
x\in[0;\theta]&\Leftrightarrow0\le x\le\theta\\
&\Leftrightarrow0\le\frac{x}{\theta}\le1\\
&\Leftrightarrow \frac{x}{\theta}\in[0;1]
\end{aligned}
$$
:::success
Donc $$π_{[0;\theta]}(x)=π_{[0;1]}(\frac{x}{\theta})$$
:::
2.
$$
\begin{aligned}
L(x_1,...,x_n,\theta)&=\Pi_{i=1}^nf(x_i,\theta)\\
&= \Pi_{i=1}^n\frac{1}{\theta}π_{[0;\theta]}(x_i)\\
&= \frac{1}{\theta^n}\Pi_{i=1}^nπ_{[0;\theta]}(x_i)
\end{aligned}
$$
Pour que ce ne soit pas egale a $0$, $x_i\in[0;\theta]$
$$
\begin{aligned}
L(x_1,...,x_n,\theta)&=\frac{1}{\theta^n}π_{[0;\theta]}(\max(x_i))\\
&= \frac{1}{\theta^n}π_{[\max x_i;+\infty]}(\theta)
\end{aligned}
$$
3.
EMV: $\hat\theta=\max_{1\le i\le n}(x_i)$
4.
Loi uniforme sur $[0;1]$
$$
F_{\frac{X}{\theta}}(x)=P(\frac{X}{\theta}\le x)=P(X\le\theta x)\\
\color{red}{X\sim U([0;\theta])}=
\begin{cases}
0 &\text{si } x\le0\\
\int_0^{\theta x}\frac{1}{\theta}dt=x &\text{si } \theta x\in[0;\theta]\color{red}{\Leftrightarrow x\in[0;1]}\\
1 &\text{si } \color{red}{\theta x\lt\theta\text{, i.e. } x\gt1}
\end{cases}\\
=F_U(x) \text{ avec } U=\frac{X}{\theta}\sim U([0;1])
$$
5.
$$
\begin{aligned}
F_T(x)&=P(\max\frac{X_i}{\theta}\le x)\\
&= P(\cap_{i=1}^n\{X_i\le x\})=\Pi_{i=1}^nP(\frac{X_i}{\theta}\le n) \text{ car les v.a. } x_i \text{ sont independantes}\\
&= P(\frac{X}{\theta}\le x)^n\text{ car les }\frac{x_i}{\theta}\text{ ont les memes lois}
\end{aligned}\\
F_T(x)=
\begin{cases}
0 &x\lt0\\
x^n &x\in[0;1]\\
1 &x\gt1
\end{cases}
$$
7.
Resolution d'equation:
$$
\begin{aligned}
1-\alpha^n&=0,95\\
\alpha^n=0,05\\
\alpha=\sqrt[n]{0,05}
\end{aligned}\\
$$
8.
$T=\max\frac{x_i}{\theta}$, $M=\max x_i$, donc $T=\frac{M}{\theta}$ (car $\theta\gt0$)
$$
P(\sqrt[n]{0,05}\le T\le1)=095\Rightarrow P(\sqrt[n]{0,05}\le\frac{M}{\theta})=0,95\\
P(1\le\frac{\theta}{M}\le(0,05)^{-\frac{1}{n}})=0,95\Leftrightarrow P(M\le\theta\le M(0,05)^{-\frac{1}{n}})=0,95
$$
:::success
$$
I\subset[M, M(0,05)^{-\frac{1}{n}}]
$$
:::
:::