Lien de la note Hackmd

Exemple

  1. H0:m=m0
    contre
    H1:m=m1
    ou
    X
    suit une loi
    N(m,1)
    et
    m0m1
  2. A. N.:
    m0=1
    et
    m1=2
  3. Calculer
    α
  4. Calculer
    β
Solution

Determiner la statistique de NP

L(X1,,Xn,2)L(X1,,Xn,1)=Πi=1n12πe(Xi2)22Πi=1n12πe(Xi1)22=e12[Xi24Xi+4+Xi22Xi+1]=e12i=1n(1Xi3)=ei=1nXi×e3n2c

Passons au log

log(T)=i=1nXi+log(c)

L'hypothese

H0 est rejetee lorsque

T>Sαlog(T)>log(Sα)Xi+log(c)>log(Sα)Xi>log(Sα)log(c)Xi>Cα

On veut calculer

α:

α=P(rejeter H0|H0 vraie)=P(Xi>Cα|m=1)

On veut se ramener a la loi centree-reduite:

α=P(XinX¯n>Cαn|m=1)=P(X¯n>Cαn|m=1)=P(n(X¯n1)>n(Cα1)n)

Sous l'hypothese

H0:
Zn=n(X¯n1)N(0,1)

Par definition, qu'est-ce que ce nombre ? On rejette combien a droite ?

C'est un quantile au niveau

1α

n(Cαn1)=Z1α

ou

Z1α designe le quantile de
N(0,1)
au niveau
1α
.

Maintenant on veut exprimer

β.

De quoi on a besoin pour determiner

β ?

β=P(Accepter H0|H1 vraie)=P(XiCα|m=2)

On veut exprimer

Cα en fonction de
Z1α
.

n(Cαn1)=Z1αCalphan1=Z1αnCαn=Z1αn+1Cα=n(Z1αn+1)=nZ1α+n

Avant de continuer, essayons de trouver

Cα dans le cas ou
α=1%
et dans le cas ou
α=5%

Avant de calculer

β, on trouve les
Cα
.

α=5%Cα=1,64n+nα=1%Cα=2,33n+n

Si

n=100,
α=1%
, alors
Cα=123,3
et pour
α=5%
,
Cα=116,4
.

Maintenant on peut calculer

β.

β=P(Ne pas rejeter H0|H0| fausse)=P(Xi<Cα|m=2)=P(X¯n<Cαn|m=2)=P(n(X¯n2)<n(Cαn2)|m=2)

Sous l'hypothese

(H1)

Zn=n(X¯n2)N(0,1)β=P(Zn<n(Cαn2))

Pour

α=5% et
n=100
:

n(Cαn2)=10(1,1642)=8,36β=P(Zn<8,36)=3×1017

scipy.stats.norm.cdf(-8.36)
  • norm: loi normale
  • cdf: cumulative distribution function

Pourquoi

β est aussi petit ?

Parce que

α est tres grand par rapport a
n

Faisons la meme chose pour

n=25 et
α=1%

Test du rapport de vraisemblance generalise (GLR)

  • H0:θA
    contre
    H1:θB
  • T=L(X1,,Xnθ^1MV)L(X1,,Xnθ^0MV)
  • T=supθBL(X1,,Xnθ)supθAL(X1,,Xnθ)
  • Rejet de
    (H0)
    ssi
    T>Sα
    ou
    Sα
    est un seuil qui depend du niveau de confiance de
    α

Comment on le traduit ?

H0:m{0}
H1:mR{0}

Test de comparaison de 2 moyennes

  • Deux populations
  • Deux echantillons independants suffisamment grand
    (X1,,Xn1)
    et
    (Y1,,Yn1)
  • Statistique

Z=X¯n1Y¯n2(Sn+12n1+Sn22n2)

  • H0:m1=m2
    contre
    H1:m1m2
  • H0:m1=m2
    contre
    H1:m1>m2
  • H0:m1=m2
    contre
    H1:m1<m2

Principe de Neyman Pearson

  1. Determination d'un model statistique
  2. Determination d'hypotheses
  3. Determination d'une statistique de test
  4. Determination de la forme de la region critique
  5. Determination des valeurs critiques
  6. Conclusion: rejet ou non de l'hypothese
  7. Calcul de la puissance du test

Hypotheses simples

  • H0:θ=θ0
  • H1:θ=θ1

Exemple

Premier exemple

La variable aleatoire

X suit une loi
N(m,1)
. Nous voulons tester
H0:m=0
contre
H1:m0

Solution

Qu'est-ce que le maximum de vraisemblance ?

C'est ce qui maximise la fonction de vraisemblance en fonction de

θ

Maximum de vraisemblance pour une loi normale ?

L(x1,,xn,m)=Πi=1n12πe(xim)22

Il n'y a pas de

σ car
σ=1

L(x1,,xn,m)=Πi=1n1σ2πe(xim)22σ2

On a une fonction

flog(f)?

Prenons un exemple:

f(x)=x22xf(x)=2x2log(f(x))=log(2x2)log(f(x))=02x2=1x=32f(x)=x22xlog(f(x))=log(x22x)(log(f(x)))=2x2x21(log(f(x)))=0x=1

Ce n'est pas le meme resultat

La formule du maximum de vraisemblance est:

T=L(X1,,Xn,θ^)L(X1,,Xn,θ0)

Avec

θ^ l'estimateur du maximum de vraisemblance de
θ
.

On cherche

X¯.

T=L(X1,,Xn,X¯)L(X1,,Xn,0)car m=0=e12[i=1n(XiX¯)2i=1nXi2]=e12[ei=1nXi+nX¯2]=ei=1nXin2X¯2log(T)=Xin2X¯2

(H0) rejetee
si
T>Sα

log(T)>log(Sα)XinX¯22>log(Sα)i=1nXi+nX¯22<log(Sα)

Proposition
Sous des hypotheses techniques, en notant

θ^n l'estimateur du maximum de vraisemblance.

nI(θ0(θ^nθ0)) converge en loi vers
N(0,1)

Nous dirons que l'estimateur du maximum de vraisemblance est normal asymptotiquement efficace ou NAE.

Nous supposerons que les hypotheses techniques evoquees sont verifiees.

Theoreme de Wilks
Sous l'hypothese

H0,
Rn:=2log(Tn)
converge en loi vers une loi
χ2(1)

En revenant a nos calculs:

2(i=1nXi+nX¯2)χ2(1)
:::

Second exemple

  • La variable aleatoire
    X
    suit une loi
    ε(λ)
  • H0:λ=1
    contre
    H1:λ>1