# ASE2 : Convergence et estimation # Introduction :::info L'estimation: on va considerer une population qui obeit a une loi de probabilite avec un parametre $\theta$ inconnu. ::: L'objectif de l'estimation c'est estimer le parametre. :::success On preleve un echantillon (suite de variables aleatoires independantes $X_1$, $X_2$,..., $X_n$ suivant la meme loi que la population $X$) dans cette population, on va construire un **estimateur** destine a **converger** vers le parametre $\theta$. ::: :::info Un estimateur est une **fonction** $T = f(X_1, X_2, ..., X_n)$ de notre echantillon. ::: Qualites de l'estimateur: 1. Etre convergent 2. Etre precis - Plus la variance est minimale, plus on a un estimateur precis 3. Etre efficace Pour etudier la convergeance, on va voir 3 types: 1. Convergence en proba 2. Convergence quadratique 3. Convergence discrete # Rappels de la loi Gamma et la loi Normale :::info On dit qu'une variable aleatoire positive $X$ suit une loi gamma de parametre r, notee $\gamma_r$ si sa densite est donnee par $$ f(x) = \frac{1}{\Gamma(r)}\exp(-x)x^{\gamma - 1} $$ Avec $\Gamma(x) = \int^{+\infty}_0\exp(-t)t^{x-1}dt$ (fonction Gamma) definie pour $x\gt 0$ ::: ## Propriete de la fonction Gamma 1. $\Gamma(x+1)=x\Gamma(x)$ (integration par partie) 2. $\Gamma(1)=1$ 3. $\Gamma(n+1)=n!$ 4. $\Gamma(k+\frac{1}{2}) = \frac{1.3.5.....(2k -1)}{2^k}\Gamma(\frac{1}{2})$ 5. $\Gamma(\frac{1}{2}) = \sqrt{\pi}$ Esperance de la loi $\gamma_r$: soit $X$ une variable aleatoire suivant la loi gamma de parametre r. On a: $$ E(x)=\frac{1}{\Gamma}\int^{+\infty}_0 t^T\exp(-t)dt = \frac{\Gamma(r+1)}{\Gamma(r)} = r $$ Variance de la loi $\gamma_r : V(X) = E(X^2) - E^2(X)$ $$ E(X^2) = \frac{1}{\Gamma(r)}\int^{+\infty}_0 t^2\exp(-t) t^{r-1}dt = \frac{1}{\Gamma(r)}t^{r+1}\exp(-t)dt = \frac{\Gamma(r+2)}{\Gamma(r)} = r(r + 1) $$ Donc $V(X) = r(r + 1) - r^2 = r$ ## Loi Normale de parametre $(m, \sigma)$ On dit qu'une variable aleatoire $X$ suit la loi normale notee $N(m, \sigma)$ si sa densite est $f(x)=\frac{1}{\sigma\sqrt{1\pi}}\exp(-\frac{1}{2}(\frac{x-m}{\sigma})^2)$ ou: - $m=E(X)$ - $\sigma=\sqrt{V(X)}$ (ecart-type) Avec le changement de variable $U=\frac{X-m}{\sigma}$ (variable normale centree reduite), la densite de $U$ est $f(u) = \frac{1}{\sqrt{2\pi}}\exp(-\frac{1}{2}u^2)$. ### Montrons que $V(U) = 1$ On a $V(U) = E(U^2) = \int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi}}u^2\exp(-\frac{1}{2}u^2)du = \frac{2}{\sqrt{2\pi}}\int^{+\infty}_{0}u^2\exp(-\frac{1}{2}u^2)du$. Posons: - $t = \frac{u^2}{2}$ - ut = udu $$ \begin{aligned} V(U) &= \frac{2}{\sqrt{2\pi}}\int^{+\infty}_{0}2t\exp(-t)\frac{dt}{\sqrt{2t}}\\ &= \frac{2}{\sqrt{\pi}}\int^{+\infty}_{0}t^{\frac{1}{2}}\exp(-t)dt\\ &= \frac{2}{\sqrt{\pi}}\Gamma(\frac{3}{2})\\ &= \frac{2}{\sqrt{\pi}}\frac{1}{2}\Gamma(\frac{1}{2}) \end{aligned} $$ Donc $V(U) = \frac{1}{\sqrt{\pi}}\sqrt{\pi} = 1$ ## Moments de la loi normale centree reduite Soit $U$ une variable normale centree reduite, on appelle moment d'ordre $k$ de $U$: $u_k = E(U^k)$ - Si $k = 2p + 1$ alors $u_{2p+1} = 0$ (car fonction impaire) - Si $k = 2p$ alors $u_{2p} = \frac{1}{\sqrt{2\pi}}\int^{+\infty}_{-\infty}u^{2p}\exp(-\frac{1}{2}u^2)du = \frac{2}{\sqrt{2\pi}}\int^{+\infty}_{0}u^{2p}\exp(-\frac{1}{2}u^2)du$ Posons: - $t= \frac{u^2}{2}$ - $dt=udu$ $$ \begin{aligned} u_{2p} &= \frac{2}{\sqrt{2\pi}}\int^{+\infty}_0(2t)^p\exp(-t)\frac{dt}{\sqrt{2\pi}}\\ &=\frac{2^p}{\sqrt{\pi}}\int^{+\infty}_0t^{p-\frac{1}{2}}\exp(-t)dt\\ &=\frac{2^p}{\sqrt{\pi}}\Gamma(p + \frac{1}{2}) \end{aligned} $$ Or $\Gamma(p+\frac{1}{2})=\frac{1.3.5...(2p-1)}{2^p}$ et $\Gamma(\frac{1}{2}) = \sqrt{\pi}$ Donc $u_{2p}=1.3.5.....(2p-1) = \frac{(2p)!}{2^pp!}$ # Fonctions caracteristiques ## Definition :::info la fonction caractéristique d’une variable aléatoire réelle $X$ est la transformée de Fourier de sa loi de probabilité. elle est notée $\phi_x(t)$ et on a $\phi_xE(\exp(itX))$ ($i$ complexe) ::: Si $X$ est une variable a densite ($X$ est une VA continue de densite $f$) alors: $$ \phi_X(t)=\int_{\mathbb R}\exp(itx)f(x)dx $$ Si $X$ est une variable discrète alors sa fonction caractéristique est: $$ \phi_X(t) = \sum_k\exp(itk)P(X = k) $$ ## Proprietes 1. $\phi_{\lambda X} = \phi_X(\lambda t)$ $\forall \lambda$ un scalaire 2. $\phi_{X+a}(t) = \exp(ita)\pi_X(t)$ 3. Si $X$ est une variable aleatoire d'esperance et d'ecrat-type $\sigma$ et $U = \frac{X-m}{\sigma}$ $$ \phi_{\frac{X-m}{\sigma}}(t) = \phi_U(T) = \exp(-\frac{itm}{\sigma})\phi_X(\frac{1}{\sigma}) $$ ## Remarque la fonction caractéristique se prête bien aux additions de variables aléatoires indépendantes : Si $X$ et $Y$ sont deux variables aléatoires indépendantes alors $$ \phi_{X+Y}(t)=\phi_X(t)\phi_Y(t) $$ En effet $\phi_{X+Y}(t) = E(\exp(it(X+Y))) = E(\exp(itX)\exp(itY))$ Or $X$ et $Y$ sont indépendantes $E(\exp(itX)\exp(itY)) = E(\exp(itX))E(\exp(itY))$ Donc $\phi_{X+Y}(t) = \phi_X(t)\phi_Y(t)$ ## Proposition Soit $X$ une variable aléatoire de fonction de répartition $\phi_X(t)$. On a: - $\phi_X(0) = 1$ - $\frac{d^k\phi_X}{dt^k}(0) = \phi_X^{(k)}(0) = t^kE(X^k)$ ### Demo Supposons que $X$ est une variable continue de densité $f$ On a $\phi_X(t)=\int_{\mathbb R}\exp(itx)f(x)\Rightarrow\phi_X(0) = \int_{\mathbb R}f(x)dx=1$ (car $f$ est une densité) En derivant $\phi_X(t)$ par rapport a t: $\phi_x'(t)=i\int_{\mathbb R}x\exp(itx)f(x)dx$ - Si $t=0$, $\phi_X'(0) = i\int_{\mathbb R}xf(x)dx=iE(X)$ Si on dérive 2 fois, $\phi_X^{(2)}(t)=\int_{\mathbb R}(ix)^2\exp(itx)f(x)dx$ - Pour $t = 0$, $\phi_X^{(2)}(0) = (i)^2\int_{\mathbb R}x^2f(x)dx = -\int_{\mathbb R}x^2f(x)dx=-E(X^2)$ En dérivant $k$ fois par rapport à $t$: $\phi_x^{(k)}(t)=\int_{\mathbb R}(ix)^k\exp(itx)f(x)dx$ - $\phi_X^{(k)}(0) = (i^k)\int_{\mathbb R}x^kf(x)dx = i^kE(X^k)$ $\forall k\in\mathbb N$ ## Formule de Mac-Laurin :::info Si $\phi_X(t)$ est indéfiniment dérivable on a: $$ \phi_x(t) = \sum^{+\infty}_{k=0}\frac{t^k}{k!}i^kE(X^k) $$ ::: ### Exemple 1 Soit X une variable aléatoire continue de densité: $$ \begin{cases} f(x) = \exp(-x) &\text{si } x\gt0\\ f(x) = 0 &\text{sinon} \end{cases} $$ Determiner la fonction caracteristique de $X$ :::spoiler Solution On a $$ \begin{aligned} \phi_X(t)&=\int_{\mathbb R}\exp(itx)f(x)dx=\int_{0}^{+\infty}\exp(itx)\exp(-x)dx = \int_{0}^{+\infty}\exp(-(1-it)x)dx\\ &= \int_{0}^{+\infty}\exp(-(1-it)x)dx = \biggr[\frac{-\exp(-(1-it)x)}{(1-it)}\biggr]^{+\infty}_{0} = \frac{1}{1-it} \end{aligned} $$ car $\exp(-(1-it)x) = \exp(-x)\exp(itx)\to 0$ lorsque $x\to +\infty$ Puisque $\exp(itx)$ est bornee de module 1 et $\exp(-x)\to 0$ quand $x\to +\infty$ ::: ### Exemple 2 Déterminer la fonction caractéristique de la loi de Bernoulli de paramètre $p$ :::spoiler Solution Soit X une variable de Bernoulli : - $X=1$ avec la probabilite $p$ - $X=0$ avec la probabilité $1-p$ $X$ étant discrète, donc sa fonction caractéristique est: $$ \phi_X(t)\sum_k\exp(itk)P(X=k) = \sum_{k=0}^1\exp(itk)P(X=k)=P(X=0)+\exp(it)P(X=1)\\ \phi_X(t) = 1 - p + p\exp(it) = q + p\exp(it) \text{avec } q =1 - p $$ ::: # Convergence des suites de variables aleatoires :::info Une suite $X_n$ de variables aléatoires étant une suite de fonctions il existe diverses façons de définir la convergence de $X_n$ dont certaines jouent un grand rôle en statistiques. ::: ## Convergence en probabilite ### Definition :::info La suite $X_n$ converge en probabilité vers une variable aléatoire $X$ Si $\forall\varepsilon\gt0, \eta\gt 0$ ( arbitrairement petits) il existe un entier $n_0$ tel que $$ \forall n\gt n_o \Rightarrow P(\vert X_n-X\vert\gt\varepsilon)\lt\eta $$ C’est-à-dire $P(\vert X_n-X\vert\gt\varepsilon)\to_{n\to+\infty}0$ ::: :::warning On notera $(X_n)\to^PX$ ::: :::danger Inégalité de Bienaymé-Tchebychev: $$ P(\vert X - E(X)\vert\gt\varepsilon)\lt\frac{V(X)}{\varepsilon^2} \forall\varepsilon\gt 0 $$ ::: ### Remarque Lorsque $E(X_n)\to_{n\to+\infty}0$, il suffit de montrer que $V(X_n)\to_{n\to+\infty} 0$ pour établir la convergence en probabilité de la suite $(X_n)$ vers a. En effet d’après Tchebychev: $$ P(\vert X_n-E(X_n)\vert\gt\varepsilon)\lt\frac{V(X_n)}{\varepsilon^2}\to 0 $$ Donc en passant a la limite: $$ \lim_{n\to+\infty}P(\vert X_n - a\vert\gt\varepsilon) = 0\\ \forall\varepsilon\gt0 $$ ## Convergence en moyenne quadratique On suppose que $E(\vert X_n-X\vert^2)$ existe. ### Definition :::info On dit qu’une suite de variables aléatoires $(X_n)$ converge en moyenne quadratique vers une variable X si $$ E(\vert X_n-X\vert^2)\to_{n\to+\infty} $$ ::: :::warning On notera $(X_n)\to^{m.q}X$ ::: ## Convergence en loi ### Definition :::info La suite $(X_n)$ converge en loi vers la variable $X$ de fonction de répartition $F$ si en tout point de continuité de $F$ la suite $(F_n)$ des fonctions de répartition des $(X_n)$ converge vers $F$, c’est-à-dire $\lim_{n\to+\infty}F_n(x)=F(x)$ pour tout x point de continuité de F ::: :::warning On noter $X_n\to^LX$ ::: ### Remarque Pour les variables discrètes, la convergence en loi est équivalente à $$ \lim_{n\to+\infty}P(X_n=k) = P(X=k) $$ ### Theoreme Si la suite des fonctions caractéristiques $\phi_{x_n}(T)$ converge vers $\phi_X(t)$ alors $(X_n)\to^LX$ # Applications - Convergence en loi de la binomiale vers la loi Normale ## Théorème (Moivre-laplace) :::danger Soit $(X_n)$ une suite de variables binomiales $B(n,p)$ Alors $\frac{X_n - np}{\sqrt{npq}}\to^LN(0,1)$ lorsque $n\to+\infty$ ::: ## Demonstration La fonction caractéristique de la loi $B(n,p)$ est: $$ \begin{aligned} \phi_{X_n}(t) &= (p\exp(it)+1-p)^n \text{ donc celle de } Y_n=\frac{X_n-np}{\sqrt{npq}} \text{ est:}\\ \phi_{Y_n} &=(p\exp(\frac{it}{\sqrt{npq}})+1-p)^n\exp(-\frac{itnp}{\sqrt{npq}})\\ Ln(\phi_{Y_n}(t)) &= nLn(p(\exp(\frac{it}{\sqrt{npq}})-1)+1) - \frac{itnp}{\sqrt{npq}} \end{aligned} $$ On rappelle le développement limité de l’exponentielle à l’ordre 2: $\exp(x) \approx 1+x+\frac{x^2}{2}$ (au voisinage de 0) $$ Ln(\phi_{Y_n}(t)) \approx nLn(p(\frac{it}{\sqrt{npq}} - \frac{t^2}{2npq})+1)-\frac{itnp}{\sqrt{npq}} $$ On rappelle $Ln(1+x)\approx x - \frac{x^2}{2}$ (au voisinage de 0) Donc: $$ \begin{aligned} Ln(\phi_{Y_n}(t))&\approx n[\frac{pit}{\sqrt{npq}}-\frac{pt^2}{2npq}+\frac{p^2t^2}{2npq}]-\frac{itnp}{\sqrt{npq}}\\ &\approx -\frac{t^2}{2q} + \frac{pt^2}{2q} = \frac{t^2}{2q}(p-1)=-\frac{t^2}{2} \end{aligned} $$ En composant par l’exponentielle: $$ \phi_{Y_n}(t)\approx\exp(-\frac{t^2}{2}) \text{ caractéristique de la loi normale } N(0,1) $$ Conclusion: $\frac{X_n-np}{\sqrt{npq}}\to^LN(0,1)$ ## Remarque :::warning Lorsque $n$ est assez grand on peut donc approximer la loi Binomiale par la loi normale. On donne généralement comme condition $np$ et $nq\gt5$ ::: Il convient cependant d’effectuer la correction de continuité : on obtient donc une valeur approchée de $P(X=x)$ par la surface sous la courbe de densité de la loi normale $N(np,\sqrt{npq})$ comprise entre les droites d’abscisse $x-\frac{1}{2}$ et $x+\frac{1}{2}$ $$ P(X=x)\approx P(x-\frac{1}{2}\lt X\lt x+\frac{1}{2}) = P(\frac{x-\frac{1}{2}-np}{\sqrt{npq}}\lt\frac{X-np}{\sqrt{npq}}\lt\frac{x+\frac{1}{2}-np}{\sqrt{npq}}) $$ Et $P(X\le x)\approx P(\frac{X-np}{\sqrt{npq}}\lt\frac{x+\frac{1}{2}-np}{\sqrt{npq}})$