PRST - Seance 3, Convergences
Modes de convergence
Convergence presque sure (p.s.)
- suite de v.a definies sur le même espace et une variable aléatoire également définie .
- convergence ponctuelle
- implique tous les autres.
Convergence en probabilite
- Meme cadre que precedemment
Convergence
- aussi appelee convergence en moyenne quadratique
- n'a de sens que pour les variables aléatoires telles que
- implique la convergence en probabilité,
- n'a pas de lien avec la convergence presque sûre.
Théorème Central Limite
Théorème 4 (Loi forte des grands nombres)
Soit une suite de variables aléatoires i.i.d. (indépendantes et identiquement distribuées) telle que .
Notons .
au sens de la convergence p.s. où
Théorème 5 (T.C.L. cas unidimensionnel)
- Soit une suite v.a. i.i.d.
- Notons et
- converge en loi vers une loi normale centrée réduite.
Cas multidimentionnel
- Soit une suite de vecteurs aleatoires de i.i.d.
- Notons et la matrice de variances-covariances
- converge en loi vers une loi normale multidimensionnelle
Premieres notions de statistique
Echantillon de taille
- Point de depart: v.a. dont l'ensemble des valeurs est note
- Donnee variables aleatoires i.i.d.
- A parti de l'echantillon, nous voudrons inferer la valeur d'un parametre (fini-dimensionnel) en estimation parametrique ou prendre une decision en decision statistique
Modele statistique
- ensemble des parametres
- famille de lois indexees par
- But: estimer la valeur ou de
- Estimateur: fonction (mesurable)
- Exemple pour le parametre d'une loi
Rappel
Estimateur propose
- moyenne empirique
Estimateur sans biais
- dans l'exemple: est sans biais
Pourquoi l'estimateur est-il sans biais ?
Pour tout , .
Estimateur convergent
- convergent si converge en probabilité vers
- fortement convergent si converge presque sûrement vers
Estimateurs de l'esperance et de la variance: cas general
- Pour l'esperance: a moyenne empirique
- Pour la variance: qui est aussi égale à la variance empirique
- sans biais par contre biaisé
- parfois remplacé par qui est sans biais
- tous trois fortement convergents d'après la loi forte des grands nombres.
Methode des moments
- Exploiter les moyennes et variances empiriques
- moyennes et variances sont remplaces par leurs contreparties empiriques
- fournit (en général) des estimateurs convergents du fait de la convergence des moyennes et variances empiriques
- Exemple de la loi exponentielle: donc
- estimateur de donné par la méthode des moments:
- peut être remplacé par suivant le même principe
- les moments et moments centrés d'ordre supérieur peuvent être utilisés suivant le même principe
- Déterminer un autre estimateur donné par la méthode des moments pour la loi de Poisson.
Methode du maximum de vraisemblance
Principe
Rechercher la valeur de en fonction des observations assurant la plus grande probabilité d'obtenir ces observations.
Fonction de vraisemblance
- ensemble des valeurs que peut prendre la variable aléatoire
- pour la loi normale
- pour la loi normale
- loi depend de donc la densite associee aussi que nous noterons
- Fonction de vraisembalnce
Maximum de vraisemblance
- fonction de
- Qui maximise i.e. telle que
- pour tout
- où est l'espace des paramètres
Cas unidimensionnel
Si est de classe (i.e. deux fois derivable par rapport et de derivee seconde continue), est solution du systeme
- La condition 1 est nécessaire et la condition 2 est sufisante.
- La condition 1 s'appelle l'équation de vraisemblance
- Pour simplifier les calculs, on peut remplacer la vraisemblance par la log-vraisemblance car la fonction logarithme est de classe et strictement croissante sur .
Ainsi est solution du systeme:
- La condition 1 est nécessaire et la condition 2 est sufisante.
Logarithme
- Particulierement utile car:
Exemple de la loi exponentielle
- Condition nécessaire : solution de :
- Condition sufisante:
- La condition sufisante est satisfaite donc est bien le maximum de vraisemblance.
Estimateur du maximum de vraisemblance
- Il est fortement convergent d'apres la loi fort des grands nombres