--- title: Tests classiques author: Tom Moulard date: 2020-04-09 rights: © 2020 Tom Moulard tags: TCOM, Regragui, COVID-19 --- Test Classique # Rappels de la loi gamma et loi normale ## Loi gamma $\gamma_{r}$ Déf: Soit $X$ une variable aléatoire continue positive. On dit que $X$ suit la loi $\gamma_{r}$ (de paramètre c > e) si sa densité est $f(x) = \frac1{\Gamma (r)} e^{-x} * x^{r-1} \forall x > 0$ Où $$\Gamma (x) = \int_{0}^{\infty} e^{-t}t^{x-1}dt$$ est la fonction gamma ### Propriété de $\Gamma (x)$ - (1) $$\Gamma(x+1) = x \Gamma(c)$$ - (2) $$\Gamma(1) = 1$$ - (3) $$\Gamma(n + 1) = n!$$ - (4) $$\Gamma(k +\frac12) = \frac{1.2.5...2^{k-1}}{2^k}\Gamma(\frac12)$$ - (5) $$\Gamma(\frac12) = \sqrt{\pi}$$ ### Calcul de $E(X)$ et de $V(X)$ $$E(X) = \frac1{\Gamma(r)}\int_{0}^{+\infty} x^re^{-x}dx = \frac{\Gamma(r+1)}{\Gamma(r)} = \boxed{r}$$ $$(E(X) = \int_{0}^{+\infty}xf(x)dx)$$ $$E(X^2) = \int_{0}^{+\infty} x^2 f(x)dx = \frac1{\Gamma(r)}\int_{0}^{+\infty} x^{r+1} e^{-x}dx$$ $$E(x^2) = \frac{\Gamma(r + 2)}{\Gamma(r)} = \frac{(r+1)\Gamma(r+1)}{\Gamma(r)} = (r+1)r$$ Donc $$V(X) = E(X^2) - E^2(X)$$ $$= r(r+1) - r^2 = \boxed{r}$$ ## Loi _Laplace - Gauss_ (loi normale) Déf: $X$ suit la loi normale $N(m, \sigma)$ de paramètres $m$ et $\sigma$. Si sa densité est $$F(x) = \frac1{\sigma\sqrt{2\pi}} exp(-\frac12(\frac{x - m}\sigma))$$ $$ \forall x \in \mathbb{R}, m = E(X), \sigma = \sqrt{V(X)}$$ ### Variable normale centrée et réduite Soit $X \rightarrow N(m, \sigma)$ On pose $U = \frac{X - m}\sigma$ variable normale centrée et réduite. Sa densité est $$\boxed{f(u) = \frac1{\sqrt{2\pi}}e^{-\frac{u^2}2}}$$ $$E(U) = \frac{E(X) - m}\sigma = 0$$ $U$ est centrée. Montrons que $V(u) = 1$ $$V(u) = E(u^2) - E^2(u) = E(u^2)$$ $$V(u) = \frac1{\sqrt{2\pi}}\int_{0}^{+\infty}u^2e^{-\frac{u^2}2}du$$ $$= \frac2{\sqrt{2\pi}}\int_{0}^{+\infty}u^2e^{-\frac{u^2}2}du$$ Posons $t = \frac{u^2}2 \Rightarrow dt = udu \Rightarrow du = \frac{dt}u \Rightarrow du = \frac{dt}{\sqrt{2\pi}}$ $$V(u) = \frac2{\sqrt{2\pi}}\int_{0}^{+\infty} 2t e^{-t}\frac{dt}{\sqrt{2\pi}}$$ $$= \frac2{\sqrt{2\pi}}\int_{0}^{+\infty}t^{\frac12}e^{-t}dt$$ $$= \frac2{\sqrt{\pi}}\int_{0}^{+\infty}t^{\frac12}e^{-t}dt$$ $$= \frac2{\sqrt{\pi}}\Gamma(\frac32)$$ $$= \frac2{\sqrt{\pi}}\frac12\Gamma(\frac12)$$ $$=\frac{\sqrt{\pi}}{\sqrt{\pi}} = 1$$ $$\boxed{V(u) = 1}$$ ### Calcul des moments de la loi $N(0, 1)$ Soit U une V.A. de loi $N(0, 1)$ Déf: On appelle moment d'ordre $k$ de $U$: $$\mu_{k} = E(u^k)=\int_{\mathbb{R}} u^k\frac1{\sqrt{2\pi}}e^{-\frac{u^2}2}du$$ Si $k$ est impair: $k = 2p + 1$$ $$\mu_{2p+1} = \int_{\mathbb{R}} u^{2p+1}\frac1{\sqrt{2\pi}}e^{-\frac{u^2}2}du = 0$$ Si $k$ est pair: $k = 2p$ $$\mu_{2p} = \int_{\mathbb{R}} u^{2p}\frac1{\sqrt{2\pi}}e^{-\frac{u^2}2}du = \frac2{\sqrt{2\pi}}\int_{\mathbb{R}} u^{2p}e^{-\frac{u^2}2}du $$ Posont $t = \frac{u^2}2 \Rightarrow dt = udu$ $$ \Rightarrow du = \frac{dt}{\sqrt{2\pi}}$$ $$\mu_{2p} = \frac2{\sqrt{2\pi}}\int_{0}^{+\infty} (2t)^{p}e^{t}\frac{dt}{\sqrt{2\pi}}$$ $$= \frac{2^p}{\sqrt{\pi}}\int_{0}^{+\infty} (t)^{p-\frac12}e^{t}dt$$ $$= \frac{2^p}{\sqrt{\pi}}\Gamma(p+\frac12)$$ $$= \frac{2^p}{\sqrt{\pi}} \frac{1.3.5...(2p-1)}{2^P}\Gamma(\frac12)$$ $$= 1.3.5...(2p-1) = \frac{(2p)!}{2^pp!}$$ $$\boxed{\mu_{2p} = \frac{(2p)!}{2^pp!}}$$ # Fonctions caractéristiques Déf: La fonction caractéristique d'une V.A. $X$ est la transformée de Fourer de sa loi de probalilité: $$\Tau_x(t) = E(exp(it X))$$ Si $X$ est continue: $$\boxed{\Tau_x(t) = \int_{\mathbb{R}} e^{itx}f(x)dx}$$ (ou $f(x)$ est la densité de $X$) Si $X$ est discrète: $$\boxed{\Tau_x(t) = \sum_{k} e^{itk}P(X = k)}$$ Rq: - (1) $$\Tau_{\lambda X}(t) = \Tau_x(\lambda t) \forall \lambda \in \mathbb{R}$$ - (2) $$\Tau_{x + a}(t) = e^{ita}\Tau_x(t) \forall a \in \mathbb{R}$$ On en déduit en particulier que si $X$ est une V.A. d'espérance $m$ et d'écart-type $\sigma$ en posant: $$U = \frac{X - m}\sigma$$ $$\boxed{\Tau_{\frac{X - m}\sigma} = e^{-\frac{itm}\sigma}\Tau_x(\frac{t}{\sigma})}$$ Rq: Si $X$ et $Y$ sont indépendants alors $$\boxed{\Tau_{X + Y}(t) = \Tau_X(t) * \Tau_Y(t)}$$ En effet: $$\Tau_{X + Y}(t) ( E(e^{it(X + Y)}))$$ $$=E(e^{itX}.e^{itY})$$ $$=E(e^{itX}).E(e^{itY})$$ $$\Rightarrow \Tau_{X + Y}(t) = \Tau_{X}(t) + \Tau_{Y}(t)$$ Proposition: $$\Tau_{X}(0) = 1$$ et $$\Tau_{X}^{(k)}(0) = i^kE(X^k)$$ On a: $$\Tau_X(0) = \int_{\mathbb{R}} f(x) dx = 1$$ (on support $X$ continue) $$\Tau_X(t) = \int_{\mathbb{R}}e^{itx}.f(x)dx$$ $$\Tau_X^{(k)}(t) = \int_{\mathbb{R}}(ix)^ke^{itx}.f(x)dx$$ Si $t=0$ $$\Tau_X^{(k)}(0) = i^k\int_{\mathbb{R}}(X)^kf(x)dx$$ $$\boxed{\Tau_X^{(k)}(0) = i^kE(X^k)}\forall k \in \mathbb{N}$$ ### Formule de _Mac-Laurin_ $$\boxed{\Tau_X(t) = \sum_{k=0}^{+\infty} \frac{t^k}{k!}i^kE(X^k)}$$ ## Exercice 1 Déterminer les fonctions caractéristiques dans les cas suivants: ### (1) $X \rightarrow B(p) Bernoulli$ $$\Tau_X(t) = E(e^{itX}) = \sum_{k=0}^{1} e^{itk} . P(X = k)$$ $$\Tau_X(t) = P(X = 0) + e^{it}P(X=1)$$ $$\boxed{\Tau_X(t) = q + pe^{it}}$$ ### (2) $X \rightarrow B(n, p) Binomiale$ $$X = \sum_{i = 1}^nX_i$$ $$X_i \rightarrow B(p) indépendantes$$ $$\Tau_X(t) = \frac{\Tau_u(t)}{2X_i} = \prod_{i=1}^n\Tau_{X_i}(t)$$ $$\Tau_X(t) = \prod_{i=1}^n(q + pe^{it}) = (q + pe^{it})^n$$ $$\boxed{\Tau_X(t) = (q + pe^{it})^n}$$ ### (3) $X \rightarrow P(\lambda) Poisson$ $$P(X = k) = e^{-\lambda}\frac{\lambda^k}{k!}$$ $$\Tau_X(t) = \sum_{k=0}^{+\infty}e^{itk}.P(X=k) = \sum_{k=0}^{+\infty}e^{itk}e^{-\lambda}\frac{\lambda^k}{k!}$$ $$\Tau_X(t) = e^{-\lambda}\sum_{k=0}^{+\infty} \frac{e^{itk}\lambda^k}{k!} = e^{-\lambda}\sum_{k=0}^{+\infty} \frac{(\lambda e^{it})^k}{k!}$$ $$\boxed{\Tau_X(t) = e^{-\lambda} exp(\lambda e^{it})}$$ ### (4) $X \rightarrow N(0, 1) Normale$ D'après la formule de _Mac-Laurin_: $$\Tau_X(t) = \sum_{k=0}^{+\infty} \frac{t^{2k}}{(2k)!}(i)^{2k}\frac{(2k)!}{2^k.k!}$$ $$= \sum_{k=0}^{+\infty} \frac{t^{2k} * (-1)^k}{2^k.k!} = \sum_{k=0}^{+\infty} \frac{(-\frac{t^2}2)^k}{k!}$$ $$\boxed{\Tau_X(t) = e^{-\frac{t^2}2}}$$ ### (5) $X \rightarrow U_{[-a, a]} Loi\;uniforme$ $$ \begin{cases} f(x) = \frac1{2a} &si\;x \in [-a, a]\\ f(x) = 0 &sinon \end{cases} $$ $$\Tau_X(t) = \int_{\mathbb{R}}e^{itx}f(x)dx = \frac1{2a}\int_{-a}^{a}e^{itx}dx$$ $$\Tau_X(t) = \frac1{2a}[\frac{e^{itx}}{it}]^a$$ $$\Tau_X(t) = \frac1{2a}(\frac{e^{ita} - e^{-ita}}{it})$$ Or $e^{ita} = cos(at) + i\;sin(at)$ et $e^{-ita} = cos(at) - i\;sin(at)$. $$\Rightarrow \Tau_X(t) = \frac{2i.sin(at)}{2ait} = \boxed{\frac{sin(at)}{at}}$$ # Convergence en statistique ## Convergence en probabilité Déf: $X_n$ étant une suite de variables aléatoires réelles. On dit que $X_n$ converge en probabilité vers une variable aléatoire $X$ lorsque pour $\forall \varepsilon > 0$ $$\lim\limits_{x \to +\infty} P (|X_n - X| \geq \varepsilon) = 0$$ Notation: ![notation](regragui/img/2020_04_17-56.jpeg) $$%X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} X$$ ### Inégalité de Tchebyshev: $$\forall \varepsilon > 0$$ $$P (|X_n - E(X_n)| \geq \varepsilon) \leq \frac{V(X_n)}{\varepsilon^2}$$ Remarque: Si $E(X_n) %\xlongrightarrow[n \rightarrow +\intfy]{} a$ et $V(X_n) %\xlongrightarrow[n \rightarrow +\intfy]{} 0$ Alors: $$%X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} a$$ Il suffit d'utiliser Tchebyshev: $$\forall \varepsilon > 0,\;P (|X_n - E(X_n)| \geq \varepsilon) \leq \frac{V(X_n)}{\varepsilon^2}$$ $$\forall \varepsilon > 0,\;P (|X_n - a| \geq \varepsilon) \leq \frac{V(X_n)}{\varepsilon^2} %\xlongrightarrow[n \rightarrow +\intfy]{} 0$$ $$\Rightarrow \lim\limits_{x \to +\infty} P (|X_n - a| \geq \varepsilon) = 0$$ $$% \Rightarrow X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} a$$ ## Convergence en moyenne d'ordre $p$ Déf: $X_n$ Converge en moyenne d'ordre $p$ si $$E((X_n - X)^p) %\xlongrightarrow[n \rightarrow +\intfy]{} 0$$ $$si\;p = 2 E((X_n-X)^2) %\xlongrightarrow[n \rightarrow +\intfy]{} 0$$ C'est la convergence en moyenne quadratique: $$% X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{mq}} X$$ ## Convergence en loi Définition: La suite $X_n$ converge en loi vers la variable $X$ de fonction de répartition $F(x)$ si en tout point de continuité de $F$, la suite $(F_n)$ des fonctions de répartition de $X_n$ converge fers $F$: $$\lim\limits_{x \to +\infty} F_n(x) = F(x)$$ $\forall x$ un point de continuité de $F$ Notation: $$% X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{L}} X$$ ### Téorème $X_n$ converge en loi vers $X$ ssi $\lim\limits_{x \to +\infty} \Phi_{X_n}(t) = \Phi_{X}(t)$ Où $\Phi_{X_n}(t)$ est la fonction caractéristique de $X_n$ et $\Phi_{X}(t)$ est la fonction caractéristique de $X$ ### Remarque Si $$%X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{P}} a \Leftrightarrow X_n \longrightarrow[\text{n \rightarrow +\intfy}]{\text{L}} a$$ $a$ est une constante. # Ex2 Une usine fabrique en grand nombre des billes dont le diamètre $X$ suit une loi continue de densité: $$F(x) = \frac1{\sqrt{8\pi}}exp(-(\frac{x-100}{2\sqrt2})^2)$$ ## Quelle est la probabilité pour une bille quelconque d'avoir un diamètre dans $[95, 105]$ ? ## Déterminer l'intervalle centré autour de $E(X)$ contentant $82\%$ de la production ## Un premier contrôle permet de répartir la production en 2 lots: $L_1$ et $L_2$. $L_1$ est l'ensemble des billes de diamètre $X\notin[95, 105]$, dit `lot de rejet`. $L_2$ est le lot d'acceptation. Quelle est la probabilité pour qu'une bille soit telle que son diamètre $X \in [95, 102]$: ### Quand elle appartient au lot $L_1$ ? $$P(x \in [95, 102]/l_1)=0$$ car $A \cap B = \emptyset$ ### Quand elle appartient au lot $L_2$ ? $$P(x \in [95, 102]/l_2)=\frac{P(95\leq X \leq 102)}{P(L_2)}$$ $$P(95\leq X \leq 102) = P(-\frac52 \leq u \leq 1)$$ $$= F(1) - F(-\frac52)$$ $$= F(1) - (1 - F(\frac52))$$ $$= F(1) - 1 + F(2.5)$$ $$= 0.8251$$ $$\Rightarrow P(x \in [95, 102]/l_2) = \frac{0.8251}{0.9876} = \boxed{0.8456}$$ ## On extrait de la production totale un échantillon de taille 16, et on note $\Delta$ le diamètre moyen de l'échantillon. Quelle est $P(\Delta > 99)$? $\Delta=\frac1{n} \sum_{i=1}^{n}X_i$ avec $n=16$, $X_i$ indépendante et même loi que $X$ $$E(\Delta) = \frac1{n}\sum_{i=1}^{n}E(X_i)$$ $$E(\Delta) = \frac{nE(X)}{n} = \boxed{100}$$ $$V(\Delta) = \frac1{n^2} \sum_{i=1}^{n}V(X_i) = \frac1{n^2}nV(X)$$ $$=\frac{V(X)}{n} = \frac{\sigma^2}{16} = \frac4{16} = \frac14$$ $$\Rightarrow \sigma(\Delta) = \frac12$$ $$\Delta \rightarrow N(100, \sigma = \frac12)$$ $$P(\Delta > 99) = 1 - P(\Delta \leq 99)$$ $$= 1 - P(\frac{\Delta - 100}{\frac12} \leq \frac{99 - 100}{\frac12})$$ $$= 1 - P(u \leq -2)$$ $$= 1 - F(-2)$$ $$= F(2)$$ $$= \boxed{0.9772}$$ # Ex3 Un candidat passant un examen est : - ajourné si sa note est inférieure à 7 - passe un oral si sa note est comprise entre 7 et 12 - est admit si sa note est supérieure à 12. On suppose que les notes suivent une loi normale : $X \rightarrow N(n=9, \sigma=3)$ ## Calculer la probabilité pour qu'un candidat soit ajourné On cherche $P(X<7)$ $$P(X<7) = P(\frac{X-9}3 \leq \frac{7-9}3)$$ $=P(u \leq -\frac23)$ avec $u=\frac{X-9}3 \rightarrow N(0, 1)$ $$\boxed{P(X<7) = 25.14\%}$$ ## Calculer la probabilité pour qu'un candidat passe l'oral $$P(7\leq X \leq 12) = P(-\frac23 \leq u \leq 1)$$ $$= F(1) - F(-\frac23)$$ $$= F(1) - (1 - F(\frac23))$$ $$= F(1) - 1 + F(\frac23)$$ $$= 0.8413 - 1 + 0.7486$$ $$= \boxed{0.5899}$$ ## Calculer la probabilité pour qu'un candidat soit admit sans oral $$P(X > 12) = 1 - P(X \geq 12)$$ $$= 1 - P(U \geq 1)$$ $$= 1 - F(1)$$ $$= 1 - 0.8413$$ $$= \boxed{0.1587}$$ ## Calculer l'intervalle de cente $E(X)$ qui contient $96\%$ des notes $$I = [E(X) - r, E(X) + r]$$ Tel que $P(X \in I) = 96\%$ $r$: Rayon de $I$ $$P(|X-E(X)| \leq r) = 96\%$$ $$P(\frac{|X-E(X)|}{\sigma} \leq \frac{r}{\sigma}) = 96\%$$ $$P(|u| \leq \frac{r}{\sigma}) = 96\%$$ $$P(-\frac{r}3 \leq |u| \leq \frac{r}3) = 96\%$$ $$F(\frac{r}3) - F(-\frac{r}3) = 96\%$$ $$2F(\frac{r}3) - 1 = 96\%$$ $$F(\frac{r}3) = \frac{1,96}2 = 0.98$$ Table $\Rightarrow \frac{r}3 = 2.05$ $$\Rightarrow r \approx 6.15$$ $$I = [2.85, 15.15]$$ $$\mathcal{X}\xrightarrow{k\rightarrow\infty}\mathcal{Y}$$ $$x \underset{down}{\overset{up}{\longrightarrow}} y$$ # Ex4 Soit $Y$ une Variable aléatoire de densité $g(y) = exp(-y-e^{-y}),\; \forall y \in \mathbb{R}$ ## Déterminer la fonction de répartition de $Y$ > Il faut déterminer la primitive de la densité ($g(t)$) entre $-\infty$ et $y$ > Changement de variable: On pose $u = exp(-t)$ Posons $u = e^{-t} \Rightarrow du = -e^{-t}dt$ $$G(y) = \int_{+\infty}^{e^{-y}}e^{-u}(-du) = \int_{e^{-y}}^{+\infty}e^{-u}du$$ $$ = [-e^{-u}]_ {e^{-y}}^{+\infty}$$ $$G(y) = exp(-e^{-y})$$ ## Soit $Z=e^{-y}$, Déterminer la fonction de répartition de $Z$, puis sa densité. $$H(z) = P(Z < z) \forall z> 0$$ $$= P(e^{-Y} < z)$$ $$= P(-Y < ln(z))$$ $$= P(Y > -ln(z))$$ $$= 1 - P(Y \leq -ln(z))$$ $$= 1 - G(-ln(z))$$ $$\boxed{H(z) = 1 - e^{-z}}$$ $H(z)$ fonction de répartition de $Z$. Sa densité est $h(z) = H'(z) = e^{-z} \forall z > 0$. ## Calculer $E(Z)$ et $V(Z)$ > Rappel pour E(Z):l'intégrale de zh(z) entre 0 et +l'infini > La variance de Z est E(Zau carré)-E(Z) au carré > On doit trouver 1 pour E(Z) ### $E(Z)$ $$E(Z) = \int_{\mathbb{R}}z.ln(z)dz = \int_{0}^{+\infty}z.e^{-z}dz$$ $$= [z.e^{-z}]_{0}^{+\infty}-\int_{0}^{+\infty}(-e^{-z}dz) = \int_{0}^{+\infty}e^{-z}dz$$ $$= [-e^{-z}]_ {0}^{+\infty} = 1$$ ### $V(Z)$ $$V(Z) = E(Z^2) - E^2(Z)$$ $$E(Z^2) = \int_{0}^{+\infty} z^2 h(z)dz = \int_{0}^{+\infty} z^2e^{-z}dz$$ $$E^2(Z) = [-z^2.e^{-z}]_{0}^{+\infty} - \int_{0}^{+\infty} 2z(-e^{-z})dz$$ $$= 2\int_{0}^{+\infty} z.e^{-z}dz = 2.E(Z) = 2$$ $$V(Z) = 2 - 1 = \boxed{1}$$ ## ($Z_1$, ..., $Z_n$) un échantillon de $Z$ $Z_i$: V.A. indépendante de même loi qie $Z$ $$\overbar{Z_n} = \frac1{n} \sum_{i=1}^{n}Z_i$$ ### Montrer que $\overbar{Z_n} -_ {n \rightarrow +\infty}^{P} > 1$ $$\overbar{Z_n} = \frac1{n}\sum_{i=1}^{n}Z_i, E(\overbar{Z_n}) = \frac{n.E(Z)}{n} = E(Z)$$ $$E(\overbar{Z_n}) = 1, V(\overbar{Z_n}) = \frac1{n^2}\sum_{i=1}^{n}V(Z_i)$$ $$V(\overbar{Z_n}) = \frac1{n^2}n.V(Z) = \frac{V(z){n^2}} = \frac1{n} \rightarrow 0$$ En utilisant l'intégralité de Tchebyshev. $$\forall \varepsilon > 0, P(|\overbar{Z_n}-E(\overbar{Z_n})|>\varepsilon)<\frac{V(\overbar{Z_n})}{\varepsilon^2}$$ $$P(|\overbar{Z_n} - 1| > \varepsilon) < \frac1{n^2\varepsilon^2} \rightarrow 0$$ Donc $\overbar{Z_n} -_ {n \rightarrow +\infty}^{P}>1$ ### Établir que $\overbar{Z_n}$ converge en moyenne quadratique vers une limite que l'on précisera. On a $E((\overbar{Z_n} - 1)^2) = E((\overbar{Z_n}-E(\overbar{Z_n}))^2)$ $$E((\overbar{Z_n} - 1)^2) = V(\overbar{Z_n}) = \frac1{n} \rightarrow 0$$ Donc $\overbar{Z_n} -_ {n \rightarrow +\infty}^{m.q}> 1$ # Ex5 Soit $X$ une V.A. de loi $\gamma_p$ > Rappel de la loi gamma de paramètre p est f(x)=exp(-x).xpuissance(p-1) divisé par Gamma(p) > > $f(x) = \frac{e^(-x)x^{p-1}}{\gamma_p}$ > > $\gamma_p = (p-1)!$ > > Pour la fonction caractéristique, il faut calculer l’intégrale de $e^{itx}f(x)$ entre $0$ et $+\infty$. ## Déterminer la fonction caractéristique de $X$ $$\Phi_x(t) = \int_{0}^{+\infty}e^{itx}\frac1{\Gamma(p)}e^{-x}x^{p-1}dx$$ $$= \frac1{\Gamma(p)}\int_{0}^{+\infty}e^{(it -)x}x^{p-1}dx$$ Posons $I_{p-1} = \int_{0}^{+\infty}e^{(it -i)x}x^{p-1}dx$ Intégration par partie: $$u' = e^{(it-1)x}, v = x^{p-1}$$ $$u = \frac1{it-1}e^{(it-1)x}, v' = (p-1)x^{p-2}$$ $$I_{p-1} = [\frac{e^{(it-1)x}}{it-1}x^{p-1}]_ {0}^{+\infty} - \frac{p-1}{it-1}\int_{0}^{+\infty}x^{p-2}e^{(it-1)x}dx$$ Or $e^{(it -1)x}.x^{p-1} =e^{itx}.e^{x}.x^{p-1} \rightarrow 0$ $$I_{p-1} = - \frac{p-1}{it-1}I_{p-2}, \forall p \geq 2$$ avec $I_{0} = \int_{0}^{+\infty}e^{(it-1)x}dx = [\frac{e^{(it-1)x}}{it-1}] = -\frac1{it-1}$ $$I_{p-1} = -\frac{p-1}{it-1}I_{p-2}$$ $$I_{p-2} = -\frac{p-2}{it-1}I_{p-3}$$ $$...$$ $$I_{2} = -\frac{2}{it-1}I_{1}$$ $$I_{1} = -\frac{1}{it-1}I_{0}$$ En faisant le produit, $$I_{p-1} = \frac{(-1)^{p-1}(p-1)!I_0}{(it-1)^{p-1}} = \frac{(-1)^{p}(p-1)!}{(it-1)^{p}}$$ $$\Phi_x(t) = \frac1{^Gamma(p)}T_{p-1} = \frac{(-1)^p}{(it-1)^p} = (1-it)^{-p}$$ $$\boxed{\Phi_x(t) = (1-it)^{-p}}$$ ## Déterminer la fonction caractéristique de $\frac{X-p}{\sqrt{p}}$ $$\frac{X-p}{\sqrt{p}} = e^{-\frac{itp}{\sqrt{p}}}\Phi(\frac{t}{\sqrt{p}})$$ $$= e^{-\frac{itp}{\sqrt{p}}}(1-it)^{-p}$$ ## Montrer que $\frac{X-p}{\sqrt{p}} -_ {n \rightarrow +\infty}^{L}> N(0, 1)$ $$ln(\frac{\Gamma_{x-p}(t)}{\sqrt{p}}) = -\frac{itp}{\sqrt{p}} - p.ln(1-\frac{it}{\sqrt{p}})$$ Or, $ln(1+x) \approx x - \frac{x^2}2$ (à l'ordre 2). $$ln(\frac{\Gamma_{x-p}(t)}{\sqrt{p}}) = -\frac{itp}{\sqrt{p}} - p(-\frac{itp}{\sqrt{p}} - -\frac{(it)^2}{2p})$$ $$ln(\frac{\Gamma_{x-p}(t)}{\sqrt{p}}) = -\frac{itp}{\sqrt{p}} + \frac{itp}{\sqrt{p}} - \frac{t^2}2 = - \frac{t^2}2$$ $\Rightarrow \frac{\Gamma_{x-p}(t)}{\sqrt{p}} \approx e^{- \frac{t^2}2}$ la fonction caractéristique de $N(0, 1)$ Donc $\frac{X-p}{\sqrt{p}}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$ # Approximation par la loi normale ## Théorème 1 $X_n$ étant une suite de variable binomiale $B(n, p)$. Alors $\frac{X_n-np}{\sqrt{npq}}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$ ## Démo La fonction caractéristique de la loi $B(n, p)$: $$\Phi_{x_n}(t) = (pe^{it}+1-p)^n$$ Donc celle de $\frac{X_n-np}{\sqrt{npq}}$ est: Posons: $Y_n = \frac{X_n-np}{\sqrt{npq}}$ $$\Phi_{Y_n}(t) = e^{-\frac{itnp}{\sqrt{npq}}}\Phi_{X_n}(\frac{t}{\sqrt{npq}})$$ $$\Phi_{Y_n}(t) = e^{-\frac{itnp}{\sqrt{npq}}}(pe^{\frac{it}{\sqrt{npq}}}+1-p)^n$$ $$ln(\Phi_{Y_n}(t)) = -\frac{itnp}{\sqrt{npq}}+n.ln(p(e^{\frac{it}{\sqrt{npq}}} - 1)+1)$$ Or, $ln(1+x) \approx x - \frac{x^2}2$ $$ln(\Phi_{Y_n}(t)) \approx -\frac{itnp}{\sqrt{npq}} + n.(\frac{pit}{\sqrt{npq}} - \frac{t^2}{2nq} + \frac{p^2t^2}{2npq})$$ $$\approx -\frac{itnp}{\sqrt{npq}} + \frac{npit}{\sqrt{npq}} - \frac{t^2}{2q} + \frac{p^2t^2}{2pq}$$ $$\approx - \frac{t^2}{2q}(1-p) = -\frac{t^2}2$$ Donc $ln(\Phi_{Y_n}(t)) \approx -\frac{t^2}2$ $$\Rightarrow ln(\Phi_{Y_n}(t)) \approx e^{-\frac{t^2}2}$$ (fonction caractéristique de $N(0, 1)$) Donc $Y_n-_ {p \rightarrow +\infty}^{L}>N(0, 1)$ $$\Rightarrow \frac{X_n-np}{\sqrt{npq}} -_ {p \rightarrow +\infty}^{L}>N(0, 1)$$ ## Théorème 2 Soit $(X_\lambda)$ une formulle de variable de Poisson $P(\lambda)$ alors: $$\frac{X_{\lambda}-\lambda}{\sqrt{\lambda}} -_ {p \rightarrow +\infty}^{L}>N(0, 1)$$ ## Démo On a vu que: $\Phi_{X_{\lambda}}(t) = e^{-\lambda}exp(\lambda.e^{it})$ $$\Phi_{X_{\lambda}}(t) = exp(\lambda(e^{it} - 1))$$ Posons $Y_{\lambda} = \frac{X_{\lambda}-\lambda}{\sqrt{\lambda}}$ $$\Phi_{X_{\lambda}}(t) = e^{-\frac{it\lambda}{\sqrt{\lambda}}} \Phi_{X_{\lambda}}(\frac{t}{\sqrt{\lambda}})$$ $$\Phi_{X_{\lambda}}(t) = e^{-\frac{it\lambda}{\sqrt{\lambda}}} exp(\lambda(e^{\frac{it}{\sqrt{\lambda}}} - 1))$$ $$\Phi_{X_{\lambda}}(t) = exp(-\frac{it\lambda}{\sqrt{\lambda}} + \lambda(e^{\frac{it}{\sqrt{\lambda}}} - 1))$$ Or, $e^{\frac{it}{\sqrt{\lambda}}} \approx 1 + \frac{it}{\sqrt{\lambda}} - \frac{t^2}{2\lambda}$ $$\Rightarrow \Phi_{X_{\lambda}}(t) = exp(-it\sqrt{\lambda} + \lambda + \frac{it\lambda}{\sqrt{\lambda}} - \frac{t^2}2 - \lambda))$$ $$\approx exp(- \frac{t^2}2)$$ (fonction caractéristique de $N(0, 1)$) Donc: $$\boxed{\frac{X_{\lambda}-\lambda}{\sqrt{\lambda}} -_ {p \rightarrow +\infty}^{L}>N(0, 1)}$$ ### Théorème _Central Limite_ $X_n$ une suite de V.A. indépendantes et de même loi d'espérence $m$ et d'écart-type $\sigma$ alors: $$\frac{X_1 + X_2 + ... + X_n -n * m }{\sigma \sqrt{n}}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$$ Posons $S_n = \sum_{i=1}^{n} X_i,\;E(S_n)=n * m,\;V(S_n) = \sum_{i=1}^{n}V(x_i) = n\sigma^2$ $$\sigma(S_n) = \sigma \sqrt{n}$$ Donc le théorème traduit que: $$\frac{S_n - E(S_n)}{\sigma(S_n)}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$$ #### Démo Soit $\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t)$ fonction caractéristique de $\frac{X_i-m}{\sigma\sqrt{n}}$. $$S_n = \sum_{i=1}^{n} X_i$$ $$D(S_n) = n * m$$ $$\sigma(S_n) = \sigma\sqrt{n}$$ $$\frac{S_n-n * m}{\sigma\sqrt{n}} = \sum_{i=1}^{n} (\frac{X_i-m}{\sigma\sqrt{n}})$$ Donc: $$\Phi_{\frac{S_n - n * m}{\sigma\sqrt{n}}}(t) = \Phi_{\sum_{i=1}^{n} (\frac{X_i-m}{\sigma\sqrt{n}})}(t) = \prod_{i=1}^{n}\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t)$$ $$\Rightarrow \Phi_{\frac{S_n - n * m}{\sigma\sqrt{n}}}(t) = (\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t))^n$$ Or $E(\frac{X_i - m}{\sigma\sqrt{n}}) = 0$ et $V(\frac{X_i - m}{\sigma\sqrt{n}}) = \frac{V(X_i)}{n\sigma^2}$$ $$= \frac{\sigma^2}{n\sigma^2} = \frac1{n}$$ D'après la formule de _Mac Laurin_ à l'ordre 2: $$\Phi_{\frac{X_i - m}{\sigma\sqrt{n}}}(t) \approx 1 - \frac{t^2}{2n}$$ Donc: $$\Phi_{\frac{S_n - n * m}{\sigma\sqrt{n}}}(t) \approx (1 - \frac{t^2}{2n})^n -_ {n\rightarrow +\infty}> e^{-\frac{t^2}{2}}$$ Car $\lim\limits_{n \to +\infty} (1 + \frac{x}{n})^n = e^x$ Or $e^{-\frac{t^2}{2}}$ C'est la fonction caractéristique de la loi normale $N(0, 1)$ Donc $\frac{S_n - E(S_n)}{\sigma(S_n)}-_ {p \rightarrow +\infty}^{L}>N(0, 1)$ # TD ## Exo 6 Soit $X_n$ une suite de V.A. de densité $f_n(x) = \frac{ne^{-nx}}{(1 + e^{-nx})^2}$. Montrer que $X_n -_ {n \rightarrow +\infty}^{P}> O$ --- $$\forall \varepsilon > 0,\; P(|X_n|\geq \varepsilon) = 1 - P(|X_n| < \varepsilon)$$ $$P(|X_n|\geq \varepsilon) = 1 - P(-\varepsilon < X_n < \varepsilon)$$ $$ = 1 - \int_{-\varepsilon}^{\varepsilon}f_n(x)dx$$ $$ = 1 - \int_{-\varepsilon}^{\varepsilon}\frac{ne^{-nx}}{(1 + e^{-nx})^2}dx$$ $$ = 1 - [\frac{1}{1 + e^{-nx}}]_ {-\varepsilon}^{\varepsilon}$$ $$ = 1 - \frac{1}{1 + e^{-n\varepsilon}} + \frac{1}{1 + e^{n\varepsilon}}$$ $$\lim\limits_{n \to +\infty} P(|X_n| \geq \varepsilon) = 1 - 1 = 0$$ Donc $X_n -_ {n \rightarrow +\infty}^{P}> O$ ## Exo 7 Soit $X$ une V.A. suivant la loi exponentielle de la densité: $$\begin{cases} f(x) = 0 &si\;x \leq 0 \\ f(x) = e^{-x} &si\;x > 0 \end{cases}$$ On considère $X_1$, $X_2$, ..., $X_n$ une suite de V.A. indépendantes de même loi que X. Soit $U_n = Inf_{i \leq i \leq n} X_i$. Montrer que $U_n -_ {n \rightarrow +\infty}^{L}> O$ --- Soit $G_n(x)$ la fonction de répartition de $U_n$ $$\begin{cases} si\;x < 0 & G_n(x) = 0 \\ si\;x < 0 & G_n(x) = P(U_n \leq x) \end{cases}$$ $$ G_n(x) = 1 - P(U_n > x)$$ $$ G_n(x) = 1 - P(X_i > x, i \in \{1, ..., n\})$$ $$ G_n(x) = 1 - P(\cap_{i=1}^{n}X_i > x)$$ $$ G_n(x) = 1 - \prod_{i=1}^{n}P(X_i > x)$$ $$ G_n(x) = 1 - \prod_{i=1}^{n}(1 - P(X_i \leq x))$$ $$ G_n(x) = 1 - \prod_{i=1}^{n}(1 - F(x)) = 1 - e^{-nx}$$ Donc $G_n(x) = \begin{cases} 1 - e^{-nx} & si\; x > 0 \\ 0 & si\; x < 0 \end{cases}$ Donc $$\lim\limits_{n \to +\infty} G_n(x) = G_n(x) = \begin{cases} 1 & si\;x > 0 \\ 0 & si\;x < 0 \end{cases}$$ Donc $U_n-_ {N \rightarrow +\infty}^{L}> 0$ ## Exo 8 On effectue $n$ tirages avec remise dans une urne contenant 2 boules blanches et 4 boules bleu. $$\forall i = 1 \rightarrow n,\;X_i = \begin{cases} 1 & Si\;la\;boule\;tirée\;est\;blanche \\ 0 & sinon \end{cases}$$ ### 1 - Étudier la convergence en probabilité de $\overbar{X_n} = \frac1{n} \sum_{i=1}^{n} X_i$ $$E(X_i) = p = \frac13$$ $$V(X_i) = pq = \frac29$$ $$E(\overbar{X_n}) = \frac1{n} \sum_{i=1}^{n}E(X_i) = \frac{np}{n} = p = \frac13$$ $$V(\overbar{X_n}) = \frac1{n^2} \sum_{i=1}^{n}V(X_i) = \frac{npq}{n^2} = \frac{pq}{n} = \frac2{9n}$$ $$V(\overbar{X_n}) \rightarrow_{n \rightarrow +\infty} 0$$ En utilisant _Tchebychev_, $$\forall \varepsilon > 0,\; P(|\overbar{X_n} - \frac13| \geq \varepsilon) \leq \frac{V(\overbar{X_n})}{\varepsilon^2} = \frac2{9n\varepsilon^2}\rightarrow_ {n \rightarrow +\infty} 0$$ Donc $\boxed{\overbar{X_n}-_ {n \rightarrow +\infty}^{P}> \frac13}$ ### 2 - Déterminer le nombre minimum $n_0$ de tirages nécessaires pour que $P(|\overbar{X_n} - \frac13| \geq 0.002) \leq 10^{-2}$ > Utiliser _Tchebychev_ En utilisant l'inégalité de Tchebychev: $$P(|\overbar{X_n} - \frac13| \geq 0.002) \leq \frac{V(\overbar{X_n})}{(0.02)^2} = \frac1{9n(0.002)^2}$$ $$\varepsilon = 0.002$$ On cherche $n$ tel que: $$\frac1{9n(0.002)^2} \leq 0.01$$ $$\Rightarrow n \geq \frac{10^6}{18}$$ La valeur minimale de $n$ est $\boxed{n_o = 55\;556}$ ### 3 - En utilisant le théorème _central - limite_, déterminer une autre valeur $n_1$ répondant à la question précédente. En utilisant le théorème _central - limite_: $$\frac{\overbar{X_n} - E(\overbar{X_n})}{\sigma(\overbar{X_n})}-_ {n \ rightarrow +\infty}^{L}> N(0, 1)$$ $$U_n = \frac{\overbar{X_n} - \frac13}{\sqrt{\frac2{3n}}}-_ {n \ rightarrow +\infty}^{L}> N(0, 1)$$ On doit avoir: $P(|U_n| \geq 0.06\sqrt{\frac{n}2}) \leq 0.01$ On note $\Phi$ la fonction de répartition de la loi normale $N(0, 1)$. Or $P(|U_n| \geq 0.006\sqrt{\frac{n}2}) = 1 - P(|U_n| < 0.006\sqrt{\frac{n}2})$ $$P(|U_n| \geq 0.06\sqrt{\frac{n}2}) = 1 - P(-0.06\sqrt{\frac{n}2} < U_n < 0.06\sqrt{\frac{n}2})$$ $$= 1 - (\Phi(0.06\sqrt{\frac{n}2}) - \Phi(-0.06\sqrt{\frac{n}2}))$$ $$= 1 - (\Phi(0.06\sqrt{\frac{n}2}) - (1 - \Phi(0.06\sqrt{\frac{n}2})))$$ $$= 2 - 2\Phi(0.06\sqrt{\frac{n}2}) \leq 0.01$$ $$\Rightarrow \Phi(0.06\sqrt{\frac{n}2}) > 0.995$$ Table de la loi normale: $\Phi(2.6) \approx 0.995$ $$\Rightarrow 0.06\sqrt{\frac{n}2} \geq 2.6$$ $$\Rightarrow \boxed{n_1 = 3756}$$ **Conclusion**: On fait moins de tirages $n_1 < n_0$ en utilisant le théorème _central - limite_ ## Exo 9 La durée de fonctionnement exprimé en jours, d'un certain modèle électronique (composant électronique) est une V.A. continue $D$ dont on connait $E(D) = 600$ et $V(D) = 120\;000$. Soit $T$ la V.A. égale à la moyenne des durées de fonctionnement de 100 composants de ce modèle. On suppose que les durées sont indépendantes. ### 1 - Déterminer $E(T)$ et $V(T)$ Soit $D_k$: la durée de fonctionnement du $k^{ieme}$ composants électronique. $$E(D_k) = 600;\;V(D_k) = 120\:000$$ $$T = \frac1{100}\sum_{k=1}^{100}D_k$$ $$E(T) = \frac{100E(D_k)}{100} = E(D_k) = 600$$ $$V(T) = \frac1{100^2} \sum_{k=1}^{100} V(D_k) = \frac{100V(D_k)}{100^2} = 1200$$ $$\sigma(T) = \sqrt{V(T)} = 20 \sqrt{3}$$ ### 2 - Étudier la convergence en loi de la variable $T$ $$S_n = \sum_{k=1}^{n}D_k,\;n=100$$ $$T = \frac{S_n}{n}$$ Les $D_k$ sont indépendants et de même limite D'après le théorème _central - limite_: $$\frac{S_n - E(S_n)}{\sigma{S_n}} \approx N(0, 1)$$ $$E(S_n) = 600n,\;V(S_n) = nV(D_k) = n * 120\;000$$ $$\sigma = 200\sqrt{3}\sqrt{n}$$ $$\frac{S_{100} - 60\;000}{2000\sqrt{3}} = \frac{100T - 60\;000}{2000\sqrt{3}} = \frac{T - 600}{20\sqrt{3}} \approx N(0, 1)$$ ### 3 - Déterminer le nombre réel positif tel que: $P(|T - 600| > t) = 5\%$ Posons $T\ast = \frac{T - 600}{20\sqrt{3}}$. Donc $P(|T\ast| > \frac{t}{20\sqrt{3}}) = 0.05$ $$\Rightarrow 1 - P(|T\ast| \leq \frac{t}{20\sqrt{3}}) = 0.05$$ $$\Rightarrow 1 - P(-\frac{t}{20\sqrt{3}} \leq T\ast \leq \frac{t}{20\sqrt{3}}) = 0.05$$ Ce qui donne: $$1 - (\Phi(\frac{t}{20\sqrt{3}}) - \Phi(-\frac{t}{20\sqrt{3}})) = 0.05$$ $$\Rightarrow 2(1 - \Phi(\frac{t}{20\sqrt{3}})) = 0.05$$ $$\Phi(\frac{t}{20\sqrt{3}}) = 0.975$$ D'après la table de $N(0, 1)$: $\Phi(1.96) = 0.975$ $$\Rightarrow \frac{t}{20\sqrt{3}} = 1.96$$ $$\Rightarrow \boxed{t = 67.9}$$ ## Exo 10 Le nombre de pannes, par mois, sur une certaine machine, soit une loi de Poissons $P(\lambda = 3)$. Un atelier fonctionne avec 12 machines de ce type, indépendantes. > Poser $X$ le nombre de pannes de l'atelier et $X_i$ le nombre de pannes de la machine numéro $i$. > $X$ est une somme indépendante de variables de Poisson. > La loi de $X$ est une variables de Poisson $P(\lambda = 36)$ > Utiliser l'approximation de Poisson par la loi normale. En un mois, quelle est la probabilité de constater dans cet atelier: ### Plus de 42 pannes ? Soit $X$ le nombre de pannes dans l'atelier en un mois. $$X = \sum_{i}^{n} X_i\;(n = 12)$$ Où: $X_i$ nombre de pannes en un mois de la machine $i$. $$X_i \rightarrow P(3)$$ Les $X_i$ sont indépendants. Donc $X \rightarrow P(\lambda = 3 * 12 = 36)$ On utilise l'approximation de Poisson par la loi normale: $$\frac{X - 36}{\sqrt{36}} \ apporx N(0, 1)$$ On Cherche $P(X > 42)$ $$P(X > 42) = P(\frac{X - 36}{6} > \frac{42 - 36}{6})$$ $$U = \frac{X - 36}{6} \ approx N(0, 1)$$ $$P(X > 42) = P(U > 1)$$ $$= 1 - P(U \leq 1)$$ $$= 1 - F(1)$$ $$= 1 - 0.8413$$ $$= \boxed{0.1587}$$ ### Entre 36 et 45 pannes ? $$P(32 \leq X \leq 45) = P(0 \leq \frac{X - 36}{6} \leq \frac{45 - 36}{6})$$ $$= P(0 \leq U \leq \frac32)$$ $$= \Phi(1.5) - \Phi(0)$$ (où $\Phi$: fonction de répartition de $N(0, 1)$) $$= 0.9332 - 0.5$$ $$= \boxed{0.4332}$$ # Estimation Le problème central de l'estimation est le suivant: disposant d'observations sur un échantillon de taille $n$: $(X_1, X_2, ..., X_n)$. On veut en déduire les propriétés de la population $X$ dont il est issu. On cherche à estimer par exemple la moyenne $m = E(X)$ de la population ou $\sigma^2 = V(X)$ (variance) à partir de la moyenne empirique $\overbar{X}$ d'un échantillon ou à partir de la variance empirique de l'échantillon. Définition: Une statistique $T$ est une V.A. aléatoire mesurable, fonction de $(X_1, X_2, ..., X_n)$. (échantillon de $X$) $$T = f(X_1, X_2, ..., X_n)$$ Exemple: La statistique $\overbar{X} = \frac1{n} \sum_{i=1}^{n} X_i$ s'appelle la moyenne empirique. $$E(\overbar{X}) = \frac1{n} \sum_{i=1}^{n} E(X_i) = \frac{n * E(x)}{n} = E(X)$$ $$E(\overbar{X}) = E(X) = m$$ $$V(\overbar{X}) = \frac1{n^2} \sum_{i=1}^{n} V(X_i) = \frac{n * \sigma^2}{n^2} = \frac{\sigma^2}{n}$$ D'après _Tchebyshev_: $\forall \varepsilon > 0$ $$P(|\overbar{X} - m| > \varepsilon) < \frac{V(\overbar{X})}{\varepsilon^2} -_ {n \rightarrow +\infty}> 0$$ Donc $\overbar{X} -_ {n \rightarrow +\infty}^{P}> m$ Donc $\overbar{X}$ converge en probabilité vers $m = E(X)$ lorsque $n \rightarrow +\infty$. On dit alors que $\overbar{X}$ est une estimation de la moyenne $m = E(X)$. Cette propriété s'appelle _la loi faible des grands nombres_. Définition: On appelle variance empirique la statistique $S^2 = \frac1{n} \sum_{i=1}^{n} (X_i - \overbar{X})^2$ Proposition: $$S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - \overbar{X}^2$$ ## Démo $$S^2 = \frac1{n} \sum_{i=1}^{n} (X_i - \overbar{X})^2$$ $$S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - 2X_i\overbar{X} + \overbar{X}^2$$ $$S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - 2\overbar{X}\frac1{n} \sum_{i=1}^{n} X_i + \frac{n\overbar{x}^2}{n}$$ $$\Rightarrow S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - 2\overbar{X}^2 + \overbar{X}^2$$ $$\Rightarrow \boxed{S^2 = \frac1{n} \sum_{i=1}^{n} X_i^2 - \overbar{X}^2}$$ Montrons que: $S^2-_ {n \rightarrow +\infty}^{P}> \sigma^2$ En effet, d'après la loi des grands nombres: $\overbar{X} = \frac1{n} \sum_{i=1}^{n} X_i -_ {n \rightarrow +\infty}^{P}> m = E(X)$ et $\frac1{n} \sum_{i=1}^{n} X_i^2 -_ {n \rightarrow +\infty}^{P}> E(X^2)$. Donc $S^2 -_ {n \rightarrow +\infty}^{P}> E(X^2) - E^2(X) = \sigma^2$ $$S^2 -_ {n \rightarrow +\infty}^{P}> \sigma^2 = V(X)$$ On dit que $S^2$ est un estimateur de la varience $\sigma^2 = V(X)$ ## Qualité d'un estimateur Soit $\theta$ le paramètre à estimer et $T$ une estimation de $\theta$. La $1^{er}$ qualité d'une estimation est d'être convergent: $T -^{P}> \theta$. On a: $T - \theta = T - E(T) + E(T) - \theta$ Où: - $T - E(T)$: représente les variations aléatoires de $T$ autour de $E(T)$ - $E(T) - \theta$: représente le biais. Il est donc souhaitable d'utiliser des estimateurs sans biais: $$\boxed{E(T) = \theta}$$ ### Exemple $$\overbar{X} = \frac1{n} \sum_{i=1}^{n} X_i$$ $$E(\overbar{X}) = m$$ Donc $\overbar{X}$ est une estimation sans biais de $m$. ## Proposition Soit $T$ un estimateur de $\theta$. $$E((T - \theta)^2) = V(T) + (E(T) - \theta)^2$$ $E((T - \theta)^2)$: L'erreur quadratique ### Démo $$T - \theta = T - E(T) + E(T) - \theta$$ $$E((T - \theta)^2) = E((T - E(T))^2 + 2(E(T) - \theta)(T - E(T)) + (E(T) - \theta)^2) $$ Or $E(T) - \theta$ est constant. $$E((T - \theta)^2) = V(T) + (E(T) - \theta)^2$$ ## Remarque Si $E(T) = \theta$ ($T$ sans biais): $$\boxed{E((T - \theta)^2) \approx V(T)}$$ Dans deux estimations sans biais, le plus précis est donc celui de variance maximale. ## Définition On appelle Vraisemblance de $\theta$, la densité de l’échantillon : $(X_1, X_2, ..., X_n)$ noté : $$\begin{cases} L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n}P(X_i = x_i) & cas\;discret\\ L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n}f(x_i) & cas\;continu \end{cases}$$ ## Exemple Soit: $X\rightarrow T(\theta)$ variable de Poisson de paramètre $\theta$ Soit $(X_1, X_2, ..., X_n)$ un échantillon de $X\rightarrow T(\theta)$ On a $L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n} P(X_i = x_i)$ Or $P(X_i = x_i) = e^{-\theta} \frac{\theta^{x_i}}{x_i!}$ $$\Rightarrow L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n} e^{-\theta} \frac{\theta^{x_i}}{x_i!}$$ $$\Rightarrow L(X_1, X_2, ..., X_n, \theta) = e^{-n\theta} \frac{\theta^{\sum_{i=1}^{n} x_i}}{\prod_{i=1}^{n} x_i!}$$ ## Définition On appelle _quantité d'information de Fisher_ $I_n(\theta)$ apporté par un n_ échantillon $(X_1, X_2, ..., X_n)$ sur le paramètre $\theta$: $$I_n(\theta) = -E(\frac{\sigma^2 * ln(L)}{\sigma \theta^2})$$ # Inégalité de _Frechet - Darmois - Cramer - Rao_ (F.D.C.R) Soit $T$ un estimateur sans bias de $\theta$. On a $\boxed{V(T) \geq \frac1{I_n(\theta)}}$ ## Méthode de maximan de vraisemblance Cette méthode consiste, étant donnée un échantillion de valeur $x_1, x_2, ..., x_n$ à prendre comme estimation de $\theta$. La valeur de $\theta$ qui rend maximale la vraisemblance: $L(X_1, X_2, ..., X_n, \theta)$. On prends $d$ comme estimation de $\theta$. La solution de $\boxed{\frac{\sigma}{\sigma \theta} * ln(L(X, \theta)) = 0}$ Où $X = (X_1, X_2, ..., X_n)$ $\frac{\sigma}{\sigma \theta} * ln(L(X, \theta)) = 0$: équation de vraisemblance Cette équation permet de construire un estimateur de $\theta$, en maximisant la vraisemblance $L(X_1, X_2, ..., X_n)$. ## Remarque Un estimateur $T$ de $\theta$ est parfait s'il possède les 3 qualités: - $(i)$ $T$ est sans biais: $E(T) = \theta$ - $(ii)$ $T$ est convergent: $T -^p> \theta$ - $(iii)$ $T$ est efficace: $V(T) = \frac1{I_n(\theta)}$ # TD ## Exo 11 On considère un échantillon $(X_1, X_2, ..., X_n)$ d'une variable aléatoire $X$. Déterminer la vraisemblance de cet échantillon dans les cas suivants: ### $X \rightarrow B(N, P) (p: inconnue)$ $$L(X_1, X_2, ..., X_n, p) = \prod_{i=1}^{N} P(X_i = x_i)$$ $$= \prod_{i=1}^{N} {N\choose x_i} p^{x_i}(1 - p)^{N - x_i}$$ $$L(X_1, X_2, ..., X_n, p) = \frac{(N!)^N}{\prod_{i=1}^{N}(x_i!(N - x_i)!)}p^{\sum_{i=1}^{N}x_i}(1 - p)^{n^2 * \sum_{i=1}^{N}x_i}$$ ### $X \rightarrow P(\theta) (\theta: inconnue)$ $$L(X_1, X_2, ..., X_n, \theta) = \prod_{i=1}^{n} e^{-\theta} \frac{\theta^{x_i}}{x_i!} = e^{-n\theta} \frac{\theta^{\sum_{i=1}^{n} x_i}}{\prod_{i=1}^{n}x_i!} $$ ### $X \rightarrow Expo(\lambda) (\lambda: inconnue)$ La densité de $X$: $$f(x)\begin{cases} \lambda e^{-\lambda x} & \forall x > 0 \\ 0 & sinon \end{cases}$$ $$L(X_1, X_2, ..., X_n, \lambda) = \prod_{i=1}^{n} f(x_i) = \prod_{i=1}^{n} \lambda e^{-\lambda x} = \lambda^n exp(-lambda \sum_{i=1}^{n}x_i)$$ ### $X \rightarrow N(m, \sigma) (m\;ou\;\sigma: inconnue)$ $$L(X_1, X_2, ..., X_n, m, \sigma) = \prod_{i=1}^{n} \frac1{\sigma \sqrt{2\pi}} exp(-\frac12(\frac{x_i - m}{\sigma})^2)$$ $$= \frac1{\sigma^n (2\pi)^{\frac{n}2}} exp(-\frac1{2\sigma^2} \sum_{i=1}^{n} (x_i - m)^2)$$ ## Exo 12 Un fabricant d'amplificateur HiFi soumet son amplificateur au test suivant pour s'assurer de leur bon fonctionnement. Il effectue un prélèvement de $n$ amplificateurs sur chaque série de production. Il les mets sous tension pendant une durée effective de $t$ heures. On note $D(t)$ le nombre de pannes de l'un quelconque de ces amplificateurs pendant le temps $t$. $D(t)$ suit une loi de poisson $P(\lambda t)$($\lambda > 0$ paramètre inconnu) ### 1 - Décrire le $n$ échantillon $(D_1, D_2, ..., D_n)$ associé à cette expérience et donner sa vraisemblance $L(D_1, D_2, ..., D_n, \lambda)$ $D_i \rightarrow P(\lambda t)$ indépendantes. $(D_1, D_2, ..., D_n)$ contiens le nombre de pannes enregistrées sur chaque amplificateur testé. $$L(D_1, D_2, ..., D_n, \lambda) = \prod_{i=1}^{n} e^{-\lambda t}\frac{(\lambda t)^{d_i}}{d_i!}$$ ### 2 - Déterminer l'estimation de maximum de vraisemblance. ### 3 - Cet estimateur est-il sans biais ? ### 4 - Est-il convergent ? ### 5 - Est-il efficace ? ## Exo 13 On considère une population $X$ qui est distribuée suivant la loi $B(N, P)$ où $P$ est inconnue. On prélève un échantillon $(X_1, X_2, ..., X_n)$ de $X$. ### 1 - Déterminer la vraisemblance associé à cet échantillon ### 2 - Déterminer l'estimateur du maximum de vraisemblance ### 3 - Cet estimateur est-il sous biais ? ### 4 - Convergent ? ### 5 - Efficace ? ## Exo 12 Un fabricant d'amplificateur HiFi soumet son amplificateur au test suivant pour s'assurer de leur bon fonctionnement. Il effectue un prélèvement de $n$ amplificateurs sur chaque série de production. Il les mets sous tension pendant une durée effective de $t$ heures. On note $D(t)$ le nombre de pannes de l'un quelconque de ces amplificateurs pendant le temps $t$. $D(t)$ suit une loi de poisson $P(\lambda t)$($\lambda > 0$ paramètre inconnu) ### 1 - Décrire le $n$ échantillon $(D_1, D_2, ..., D_n)$ associé à cette expérience et donner sa vraisemblance $L(D_1, D_2, ..., D_n, \lambda)$ $D_i \rightarrow P(\lambda t)$ indépendantes. $(D_1, D_2, ..., D_n)$ contiens le nombre de pannes enregistrées sur chaque amplificateur testé. $$L(D_1, D_2, ..., D_n, \lambda) = \prod_{i=1}^{n} e^{-\lambda t}\frac{(\lambda t)^{d_i}}{d_i!}$$ Donc $L(D_1, D_2, ..., D_n, \lambda) = \frac{e^{-n\lambda t} . (\lambda t)^{\sum_{i=1}^{n} d_i}}{\prod_{i=1}^{n} d_i!}$ ### 2 - Déterminer l'estimation de maximum de vraisemblance. $$\frac{\sigma}{\sigma \lambda} ln(L) = 0$$ $$ln(L) = -n \lambda t + (\sum_{i=1}^{n} d_i) ln(\lambda t) - ln(\prod_{i=1}^{n} d_i!)$$ $$\frac{\sigma ln(L)}{\sigma \lambda} = -nt + (\sum_{i=1}^{n} d_i) \frac1{\lambda}$$ $\frac{\sigma ln(L)}{\sigma \lambda} = 0 \Rightarrow \^{\lambda} = \frac1{nt} \sum_{i=1}^{n} d_i$ estimation ponctuelle de $\lambda$. Et $\boxed{T = \frac1{nt} \sum_{i=1}^{n} D_i}$ l'estimation de $\lambda$. ### 3 - Cet estimateur est-il sans biais ? Montrons que $E(T) = \lambda$ On a $\begin{cases} E(T) = \frac1{nt} \sum_{i=1}^{n} E(D_i) = \frac{n \lambda t}{nt} = \lambda \\ E(T) = \lambda \Rightarrow Test\;sans\;biais \end{cases}$ ### 4 - Est-il convergent ? $$V(T) = \frac1{n^2t^2} \sum_{i=1}^{n} V(D_i) = \frac{n \lambda t}{n^2t^2} = \frac{\lambda}{nt}$$ $$V(T) = \frac{\lambda}{nt} -_ {n \rightarrow +\infty}> 0$$ En utilisant _Tchebychev_ $\forall \varepsilon > 0$ $$P(|T - \lambda| > \varepsilon) < \frac{V(T)}{\varepsilon^2} = \frac{\lambda}{nt\varepsilon^2} -_ {n \rightarrow +\infty}> 0$$ $$= \lim\limits_{n \to +\infty} P(|T - \lambda| > \varepsilon) = 0$$ Donc $T -_ {n \rightarrow +\infty}^{P}> \lambda$ ### 5 - Est-il efficace ? On calcule l'information de _Fisher_: $$I_n(\lambda) = - E\left(\frac{\sigma^2 ln(L)}{\sigma \lambda^2}\right)$$ $$\frac{\sigma ln(L)}{\sigma \lambda} = -nt + \frac{\sum_{i=1}^{n} d_i)}{\lambda}$$ $$\frac{\sigma^2 ln(L)}{\sigma \lambda^2} = -\frac1{\lambda^2} + \sum_{i=1}^{n} d_i$$ $$I_n(\lambda) = - E\left(\frac{\sigma^2 ln(L)}{\sigma \lambda^2}\right) = - E\left(-\frac1{\lambda^2} + \sum_{i=1}^{n} d_i\right)$$ $$I_n(\lambda) = \frac1{\lambda^2} \sum_{i=1}^{n} E(d_i) = \frac{n \lambda t}{\lambda^2} = \frac{nt}{\lambda}$$ Donc $\boxed{I_n(\lambda) = \frac{nt}{\lambda}}$ l'information de _Fisher_ Or $V(T) = \frac{\lambda}{nt} = \frac1{I_n(T)}$ Donc $T$ est efficace. ## Exo 13 On considère une population $X$ qui est distribuée suivant la loi $B(N, P)$ où $P$ est inconnue. On prélève un échantillon $(X_1, X_2, ..., X_n)$ de $X$. ### 1 - Déterminer la vraisemblance associé à cet échantillon $$L(x_1, x_2, ..., x_n) = \prod_{i=1}^{n} {N \choose x_i} p^{x_i} (1 - p)^{N - x_i}$$ $$= \frac{(N!)^n}{\prod_{i=1}^{n} x_i! (N - x_i)!} . P^{\sum_{i=1}^{n} x_i} . (1 - p)^{nN - \sum_{i=1}^{n} x_i}$$ ### 2 - Déterminer l'estimateur du maximum de vraisemblance $$\frac{\sigma ln(L)}{\sigma P} = 0$$ $$ln(L) = ln(\frac{(N!)^n}{\prod_{i=1}^{n} x_i! (N - x_i)!}) + \sum_{i=1}^{n} x_i ln(p) + (nN- \sum_{i=1}^{n} x_i) ln(1 - p)$$ $$\frac{\sigma ln(L)}{\sigma P} = \frac1{p} \sum_{i=1}^{n} x_i - \frac1{1 - p}(nN - \sum_{i=1}^{n} x_i)$$ $$\frac{\sigma ln(L)}{\sigma P} = 0 \Rightarrow \^{p} = \frac1{nN} \sum_{i=1}^{n} x_i$$ (estimation ponctuelle de $p$) Et $\boxed{T = \frac1{nN}\sum_{i=1}^{n}X_i}$ estimateur de $p$. ### 3 - Cet estimateur est-il sans biais ? $$E(T) = \frac1{nN} \sum_{i=1}^{n} E(X_i) = \frac{nNp}{nN} = p$$ $\boxed{E(T) = p}$ sans biais. ### 4 - Convergent ? $$V(T) = \frac1{(nN)^2}\sum_{i=1}^{n} V(X_i)$$ Donc $V(T) = \frac1{(nN)^2}\sum_{i=1}^{n}N_p(1 - p) = \frac{nNp(1 - p)}{(nN)^2}$ $$\boxed{V(T) = \frac{p(1 - p)}{nN}}$$ D'après _Tchebyshev_ $\forall \varepsilon > 0$ $$P(|T - p| > \varepsilon) < \frac{V(T)}{\varepsilon^2} = \frac{p(1 - p)}{nN\varepsilon^2} -_ {n \rightarrow +\infty}> 0$$ Donc $T -_ {n \rightarrow +\infty}^{P}> p$ ### 5 - Efficace ? $I_n(p) = -E\left(\frac{\sigma^2 ln(L)}{\sigma p^2}\right)$: informateur de _Fisher_ $$\frac{\sigma ln(L)}{\sigma p} = \frac1{p} \sum_{i=1}^{n} x_i - frac1{1 - p} (nN - \sum_{i=1}^{n} x_i) $$ $$\frac{\sigma^2 ln(L)}{\sigma p^2} = -\frac{1}{p^2} \sum_{i=1}^{n} X_i - \frac{1}{(1 - p)^2}(nN - \sum_{i=1}^{n} x_i)$$ Donc : $$I_n(p) = \frac{1}{p^2} \sum_{i=1}^{n} E(X_i) + \frac{1}{(1 - p)^2} (nN - \sum_{i=1}^{n} E(X_i))$$ $$\Rightarrow I_n(p) = \frac{nNp}{p^2} + \frac{nN + nNp}{(1 - p)^2}$$ $$\Rightarrow I_n(p) = \frac{nN}{p} + \frac{nN}{1 - p}$$ $$\Rightarrow \boxed{I_n(p) = \frac{nN}{p(1 - p)}}$$ Or : $$V(T) = \frac{p(1 - p)}{nN} = \frac{1}{I_n(p)}$$ Donc $T$ est efficace. ## Exo 4 Soient $T_1$ et $T_2$ 2 estimateurs d'un paramètre $\theta$, sans biais et indépendants de variance respectives $V_1$ et $V_2$. Soient $T_3 = aT_1 + (1 - a)T_2\;(a \in \mathbb{R})$ ### 1 - Montrer que $T_3$ est sans biais $$T_3 = aT_1 + (1 - a)T_2$$ $$E(T_3) = aE(T_1) + (1 - a)E(T_2)$$ $$= a\theta + (1 - a)\theta = \theta$$ $$\boxed{T_3 = \theta}$$ $T_3$ est sans biais. ### 2 - Déterminer $a$ de façon que $T_3$ soit de variance minimale $$V(T_3) = V_3 = a^2V(T_1) + (1 - a)^2V(T_2)$$ $$V_3 = a^2V_1 + (1 - a)V_2$$ $$\frac{d^2V_3}{da} = 0 \Rightarrow 2aV_1 - 2(1 - a)V_2 = 0$$ $$\Rightarrow \boxed{a = \frac{V_2}{V_1 + V_2}}$$ Or $\frac{d^2V_3}{da^2} = 2V_1 + 2V_1 > 0$ Donc $V_3$ est minimum pour $a = \frac{V_2}{V_1 + V_2}$ ### 3 - $T_1$ et $T_2$ peuvent-ils être efficaces tous les deux ? Si $T_1$ et $T_2$ sont efficaces alors : $$V_1 = V_2 = \frac{1}{I_n(\theta)}$$ (borne minimale) Donc : $$V_3 = V(T_3) = \left(\frac{V_2}{V_1 + V_2}\right)^2V_1 + \left(1 + \frac{V_2}{V_1 + V_2}\right)^2V_2$$ $$\Rightarrow V_3 = \frac{V_1V_2}{V_1+V_2} = \frac{V_1^2}{2V_1} = \frac{1}{2I_n(\theta)}$$ Donc $V_3 = \frac{1}{2I_n(\theta)}$ ce qui est impossible car $V_3 \geq \frac{1}{2I_n(\theta)}$ (borne inférieure) Conclusion: $T_1$ et $T_2$ ne sont pas efficaces. ## Exo 5 Un générateur de nombres au hasard compris entre $0$ et $1$ peut être victime de perturbations. Le résultat obtenu sera donc une variable aléatoire $X$ qui sera de loi uniforme sur $[0, 1]$ avec une probabilité $p\;(0 < p < 1)$ et de loi uniforme sur $[0, 2]$ avec une probabilité $1 - p$ où $p$ est un paramètre inconnu. Soit $(X_1, X_2, ..., X_n)$ un échantillon de $X$ Soit $Y \begin{cases}1 & si\;x_i \leq 1 \\ 0 & sinon\end{cases} (1 \leq i \leq n)$ ### 1 - Déterminer la loi des $Y_i\; (1 \leq i \leq n)$ $Y_i$ suit une loi de _Bernoulli_ de paramètre $\theta = P(Y_i = 1) = P(X_i \leq 1)$ $$P(Y_i = 1) = p + \frac12(1 - p) = \frac{1 + p}{2}$$ car $F(X) = P(X \leq x) = \frac{x}{a}\;(si X \rightarrow U[0, a])$: fonction de répartition de $X$ #### 1 - En déduire celle de $S_n = \sum_{i=1}^{n} Y_i$ $$P(Y_i = 1) = \theta = \frac{1 + p}{2}$$ $$\forall i$$ $S_n = \sum_{i=1}^{n} Y_i$: Somme indépendante de _Bernoulli_ $B(\theta)$ Donc $S_n \rightarrow B(n, \theta)$ $$\boxed{\theta = \frac{1 + p}{2}}$$ #### 2 - Que représente la valeur de $S_n$ ? $S_n$: représente le nombre de valeurs comprises entre $0$ et $1$. ### 2 - Calculer $E(\overbar{Y_n})$ où $\overbar{Y_n} = \frac{S_n}{n}$ $$E(\overbar{Y_n}) = E(\frac{S_n}{n}) = \frac{1}{n}E(s_n) = \frac{n\theta}{n} = \theta$$ $$\boxed{E(\overbar{Y_n}) = \theta}$$ $$E(\overbar{Y_n}) = \theta = \frac{1 + p}{2}$$ #### 1 - En déduire un estimateur $\^{P_n}$ de $p$ $$\Rightarrow p = 2 E(\overbar{Y_n}) - 1$$ $$\Rightarrow p = E(2\overbar{Y_n} - 1)$$ Posont $\^{P_n} = 2\overbar{Y_n} - 1$ avec $E(\^{P_n}) = p$ $\^{P_n}$ est dans biais #### 2 - Montrer que $\^{P_n} -_ {n \rightarrow +\infty}^{P}> p$ $$V(\^{P_n}) = 4V(\overbar{Y_n}) = 4V(\frac{S_n}{n})$$ $$= \frac{4}{n^2} V(s_n) = \frac{4}{n^2} \theta(1 - \theta)$$ (car $S_n \rightarrow B(n, \theta)$) $$V(\^{P_n}) = \frac{4\theta(1 - \theta)}{n} = \frac{1 - p^2}{n} -_ {n \rightarrow +\infty}> 0$$ Donc d'après _Tchebyshev_: $$\forall \varepsilon > 0,\;P(|\^{P_n} - p| > \varepsilon) < \frac{V(\^{P_n})}{\varepsilon^2} -_ {n \rightarrow +\infty}> 0$$ Donc $\^{P_n} -_ {n \rightarrow +\infty}> p$ ### 3 - Si on note $f_1$ et $f_2$ les densités respectives de la loi uniforme sur $[0, 1]$ et $[0, 2]$, montrer que la densité $f$ de $X$ est: $f(X) = pf_1(X) + (1 - p)f_2(X)$ $$F(X) = P(X \leq x) = P((X \leq x) \cap (X \rightarrow U[0, 1])) + P((X \leq x) \cap (X \rightarrow U[0, 2]))$$ $$F(X) = P(X \leq x / X \rightarrow U[0, 1]).P(X \rightarrow U[0, 1]) + P(X \leq x / X \rightarrow U[0, 2]).P(X \rightarrow U[0, 2])$$ $$\boxed{F(X) = pF_1(X) + (1 - p)F_2(X)}$$ Où: $F_1$: fonction de répartition de $X$ sur $[0, 1]$ $F_2$: fonction de répartition de $X$ sur $[0, 2]$ En dérivant la fonction: $$F(X) = pF_1(X) + (1 - p)F_2(X)$$ $$\Rightarrow f(X) = F'(X) = pF'_ 1(X) + (1 - p)F'_ 2(X)$$ Donc: $$f(X) = \begin{cases}\frac{1 + p}{2} & si\;0 \leq x \leq 1 \\ \frac{1 - p}{2} & si\;0 \leq x \leq 2\end{cases}$$ ### 4 - Calculer $E(X)$ et $V(X)$ $$E(X) = \frac{1 + p}{2} \int_{0}^{1} x dx + \frac{1 - p}{2} \int_{1}^{2} x dx$$ $$= \frac{1 + p}{4} + \frac{3 - 3p}{4} + \boxed{1 - \frac{p}{2}}$$ $$E(X^2) = \frac{1 + p}{2} \int_{0}^{1} x^2 dx + \frac{1 - p}{2} \int_{1}^{2} x^2 dx$$ $$\boxed{E(X^2) = \frac{4 - 3p}{3}}$$ Donc: $$\boxed{V(X) = \frac{1}{3} - \frac{p^2}{4}}$$ ### 5 - Écrire l'expression de la vraisemblance de l'échantillon $(X_1, X_2, ..., X_n)$ en facteurs de $s_n = \sum_{i=1}^{n} y_i$ $$L(X_1, X_2, ..., X_n, p) = \prod_{i=1}^{n} (\frac{1}{2}(1 + p)\Lambda_{[0, 1]}(x_i) + \frac{1}{2}(1 + p)\Lambda_{[1, 2]}(x_i))$$ où $\Lambda_{[0, 1]}(x_i) = \begin{cases}1 & si\;x_i \in [0, 1] \\ 0 & sinon\end{cases}$: fonction indicatrice de $[0, 1]$ et $\Lambda_{[1, 2]}(x_i)$: fonction indicatrice de $[1, 2]$ $$\Rightarrow L(X_1, X_2, ..., X_n, p) = \left(\frac{1 + p}{2}\right)^{S_n} . \left(\frac{1 - p}{2}\right)^{n - S_n}$$ $$\boxed{L = \frac{1}{2^{n}}(1 + p)^{S_n}(1 - p)^{n - S_n}}$$ ### 6 - Déterminer l'information de _Fisher_$I_n(p)$ $$ln(L) = S_n.ln(1 + p) + (n - S_n)ln(1 - p) - n. ln(2)$$ $$\frac{\sigma ln(L)}{\sigma p} = \frac{S_n}{1 + p} - \frac{n - S_n}{1 - p}$$ $$\frac{\sigma^2 ln(L)}{\sigma p^2} = -\frac{S_n}{(1 + p)^2} - \frac{n - S_n}{(1 - p)^2}$$ $$I_n(p) = -E(\frac{\sigma^2 ln(L)}{\sigma p^2}) = \frac{E(S_n)}{(1 + p)^2} + \frac{n - E(S_n)}{(1 - p)^2}$$ $$I_n(p) = \frac{n\theta}{(1 + p)^2} + \frac{n - n\theta}{(1 - p)^2}$$ #### 1 - $\^{P_n}$ est-il efficace ? $$I_n(p) = \frac{n\theta}{(1 + p)^2} + \frac{n - n\theta}{(1 - p)^2}$$ Or: $\theta = \frac{1 + p}{2}$ $$\Rightarrow \boxed{I_n(p) = \frac{n}{1 - p^2}}$$ Or: $V(\^{P_n}) = \frac{1 - p^2}{n} = \frac{1}{I_n(p)}$ Donc $\^{P_n}$ est efficace ## Exo 6 Soit $X$ une variable aléatoire de densité $f(X) = \begin{cases}\frac{3X^2}{\theta^3} & si\; 0 < x < \theta \\ 0 & sinon\end{cases}$ $\theta$: paramètre $>0$, inconnu $(X_1, X_2, ..., X_n)$ un échantillon de $X$ ### 1 - Déterminer la fonctione de répartition de $X$ $$\begin{cases}F(X) = 0 & si\; X \leq \theta \\ F(X) = 1 & si\; X \geq \theta\end{cases}$$ Si $0 < X < \theta$, $F(X) = \frac{3}{\theta^3} \int_{0}^{x} t^2 t = \frac{3}{\theta^3} [\frac{t^3}{3}]_ {0}^{x}$ $$\boxed{F(X) = \frac{X^3}{\theta^3}}$$ ### 2 - Calculer $E(X)$ et $V(X)$ $$E(X) = \int_{0}^{\theta} xf(x) dx = \int_{0}^{\theta} \frac{3}{\theta^2} x^3 dx = \frac{3\theta}{4}$$ $$E(X^2) = \int_{0}^{\theta} x^2f(x) dx = \frac{3\theta^2}{5}$$ $$V(X) = E(X^2) - E^2(X) = \frac{3\theta^2}{80}$$ ### 3 - Déterminer un estimateur $T_n$ de $\theta$ constant par la méthode des moments $$E(X) = \frac{3}{4}\theta \Rightarrow \theta = \frac{4}{3} E(X) = E(\frac{4X}{3})$$ Posons $T_n = \frac{4}{3} \overbar{X_n}$ où $\overbar{X_n} = \frac{1}{4}\sum_{i=1}^{n} X_i$ $$E(T_n) = \frac{4}{3} E(\overbar{X_n}) = \frac{4}{3} . \frac{3}{4}\theta = \theta$$ Donc $T_n$ est sans biais. #### 1 - Montrer qu'il converge vers $\theta$ $$V(T_n) = V(\frac{4}{3} \overbar{X_n}) = \frac{16}{9} V(\overbar{X_n})$$ $$= \frac{16}{9} \frac{1}{n^2} \sum_{i=1}^{n} V(X_i) = \frac{16}{9} \frac{nV(X)}{n^2}$$ $$= \frac{16}{9n} V(X)$$ $$= \frac{16}{9n}.\frac{3}{80}\theta^2$$ $$= \boxed{\frac{\theta^2}{15n}}$$ Or $V(T_n) -_ {n \rightarrow +\infty}> 0$ D'après _Tchebyshev_: $T_n -_ {n \rightarrow +\infty}^{P}> \theta$$ ### 4 - Déterminer la loi limite de $T_n$ D'après le théorème _constante - limite_: $$\frac{\overbar{X_n} - E(X)}{\frac{\sigma(X)}{\sqrt{n}}} -_{n \rightarrow +\infty}^{L}> N(0, 1)$$ $$\frac{\sqrt{v}(\overbar{X_n} - E(X))}{\sigma(x)} = \frac{\sqrt{v}(T_n - \frac{4.E(X)}{3})}{\frac{4\sigma(x)}{3}}$$ $$= \frac{\sqrt{v}(T_n - \theta)}{\frac{\theta}{\sqrt{15}}} -_ {n \rightarrow +\infty}> N(0, 1)$$ #### 1 - En déternimer un intervalle de confiance de niveau $1 - \alpha$ pour $\theta$ $$( * )\;P(-u < \frac{\sqrt{v}(T_n - \theta)}{\frac{\theta}{\sqrt{15}}} < u) = 1 - \alpha$$ $$\Rightarrow 2\Phi(u) - 1 = 1 - \alpha$$ $$\Phi(u) = 1 - \frac{\alpha}{2}$$ #### 2 - Application : $\alpha = 0.05,\; n = 240\;et\;\overbar{X_{240}} = 2.94$ $$\Phi(u) = 1 - \frac{\alpha}{2} \Rightarrow u = 2\;(si\;\alpha = 0.05)$$ On isole $\theta$ à partir de $( * )$: $$-\frac{u\theta}{\sqrt{15n}} < T_n \theta < \frac{u\theta}{\sqrt{15n}}$$ $$\boxed{\frac{T_n}{1 + \frac{u}{\sqrt{15n}}} < \theta \frac{T_n}{1 - \frac{u}{\sqrt{15n}}}}$$ $$\boxed{3.79 < \theta < 4.06}$$