Try   HackMD

PRST - Seance 3, Convergences

Modes de convergence

Convergence presque sure (p.s.)

  1. (Xi)
    suite de v.a definies sur le même espace
    Ω
    et
    X
    une variable aléatoire également définie
    Ω
    .
  2. convergence ponctuelle
  3. implique tous les autres.

Convergence en probabilite

  1. Meme cadre que precedemment
  2. ε>0,limn+P(|XnX|ε)=0

Convergence
L2

  1. aussi appelee convergence en moyenne quadratique
  2. limn+E(|XnX|)=0
  3. n'a de sens que pour les variables aléatoires telles que
    E(X2)<+
  4. implique la convergence en probabilité,
  5. n'a pas de lien avec la convergence presque sûre.

Théorème Central Limite

Théorème 4 (Loi forte des grands nombres)

Soit

(Xi) une suite de variables aléatoires i.i.d. (indépendantes et identiquement distribuées) telle que
E(|X1|)<+
.
Notons
m:=E(X1)
.

limn+X¯n=m

au sens de la convergence p.s. où

X¯n:=X1+...+Xnn

Théorème 5 (T.C.L. cas unidimensionnel)

  1. Soit
    (Xi)
    une suite v.a. i.i.d.
  2. Notons
    m:=E(Xi)
    et
    σ2=V(Xi)
  3. n(X¯nm)σ
    converge en loi vers une loi normale centrée réduite.

Cas multidimentionnel

  1. Soit
    (Xi)
    une suite de vecteurs aleatoires de
    Rp
    i.i.d.
  2. Notons
    m:=E(Xi)Rp
    et
    Σ
    la matrice de variances-covariances
  3. n(1ni=1nXim)
    converge en loi vers une loi normale multidimensionnelle
    N(0,Σ)

Premieres notions de statistique

Echantillon de taille
n

  • Point de depart: v.a.
    X
    dont l'ensemble des valeurs est note
    H
  • Donnee
    n
    variables aleatoires i.i.d.
  • A parti de l'echantillon, nous voudrons inferer la valeur d'un parametre (fini-dimensionnel) en estimation parametrique ou prendre une decision en decision statistique

Modele statistique

  • θRd
  • ΘRd
    ensemble des parametres
  • P:={Pθ|θΘ}
    famille de lois indexees par
    Θ
  • But: estimer la valeur
    θ0
    ou de
    g(θ0)
  1. Estimateur: fonction (mesurable)
    θ^:HnRd
  2. Exemple pour le parametre
    λ
    d'une loi
    P(λ)
  3. Θ=]0;+[
  4. H=N

Rappel

Estimateur propose

  1. λ^:Hn]0;+[
  2. λ^(x1,...,xi):=1ni=1nxi
  3. λ^
    moyenne empirique

Estimateur sans biais

  1. b(θ^n):=E(θ^n)θ
  2. dans l'exemple:
    λ^n
    est sans biais

Pourquoi l'estimateur est-il sans biais ?
Pour tout

i{1,...,n},
XiP(λ)
.

E(Xi)=λE(λ^)=E(1ni=1nYi)=1ni=1nE(Xi)=1ni=1nλ=1n×nλ=λ

Estimateur convergent

  1. θ^n
    convergent si
    θ^n
    converge en probabilité vers
    θ
  2. θ^n
    fortement convergent si
    θ^n
    converge presque sûrement vers
    θ

Estimateurs de l'esperance et de la variance: cas general

  • Pour l'esperance:
    X¯n:=1ni=1nxi
    a moyenne empirique
  • Pour la variance:
    Sn2:=1ni=1n(xix¯n)2
    qui est aussi égale à
    1ni=1nxi2x¯n2
    la variance empirique
  • X¯n
    sans biais par contre
    Sn2
    biaisé
  • Sn2
    parfois remplacé par
    Sn2=nn1Sn2
    qui est sans biais
  • tous trois fortement convergents d'après la loi forte des grands nombres.

Methode des moments

  • Exploiter les moyennes et variances empiriques
  • moyennes et variances sont remplaces par leurs contreparties empiriques
  • fournit (en général) des estimateurs convergents du fait de la convergence des moyennes et variances empiriques
  • Exemple de la loi exponentielle:
    E(X)=1λ
    donc
    λ=1E(X)
  • estimateur de
    λ
    donné par la méthode des moments:
    λ^=1X¯n
  • E(X2)
    peut être remplacé par
    1ni=1nxi2
    suivant le même principe
  • les moments et moments centrés d'ordre supérieur peuvent être utilisés suivant le même principe
  • Déterminer un autre estimateur donné par la méthode des moments pour la loi de Poisson.

Methode du maximum de vraisemblance

Principe

Rechercher la valeur de

θ en fonction des observations
x1,...,xn
assurant la plus grande probabilité d'obtenir ces observations.

Fonction de vraisemblance

  1. H
    ensemble des valeurs que peut prendre la variable aléatoire
    X
  2. pour la loi normale
    H=R
  3. pour la loi normale
    H=N
  1. loi depend de
    θ
    donc la densite associee aussi que nous noterons
    f(x,θ)
  2. Fonction de vraisembalnce

L(x1,...xn,θ):=Πi=1nf(xi,θ)

Maximum de vraisemblance

  1. fonction
    θ^
    de
    x1,...,xn
  2. Qui maximise
    L
    i.e. telle que
  3. L(x,θ^)L(x,θ)
    pour tout
    θΘ
  4. Θ
    est l'espace des paramètres

Cas unidimensionnel

Si

L est de classe
C2
(i.e. deux fois derivable par rapport
θ
et de derivee seconde continue),
θ^
est solution du systeme

{δLδθ=0δ2Lδθ2lt0(1)

  • La condition 1 est nécessaire et la condition 2 est sufisante.
  • La condition 1 s'appelle l'équation de vraisemblance
  • Pour simplifier les calculs, on peut remplacer la vraisemblance par la log-vraisemblance car la fonction logarithme est de classe
    C2
    et strictement croissante sur
    ]0;+[
    .

Ainsi

θ^ est solution du systeme:

{δlogLδθ=0δ2logLδθ2lt0(1)

  • La condition 1 est nécessaire et la condition 2 est sufisante.

Logarithme

  1. Particulierement utile car:
  2. log(ab)=log(a)+log(b)
  3. log(ab)=log(a)log(b)
  4. log(ax)=xlog(a)

Exemple de la loi exponentielle

  1. L(x,λ)=Πk=1nλeλxk=λneλk=1nxk
  2. log(L(x,λ))=nlog(λ)λk=1nxk
  3. log(θLθλ(x,λ))=nλk=1xk
  4. Condition nécessaire :
    λ^(x)
    solution de :

nλk=1xk=0λ^(x)=nk=1nxk

  • Condition sufisante:
    δ2logLδλ2=nλ2<0
  • La condition sufisante est satisfaite donc
    λ^(x)
    est bien le maximum de vraisemblance.

Estimateur du maximum de vraisemblance

  1. λ^n=nk=1n=1X¯n
  2. Il est fortement convergent d'apres la loi fort des grands nombres