PRST - Seance 2

Definition

  • Soit
    X
    une v.a (aucune condition prescrite)
  • ϕ
    definie sur
    R
    par:
    ϕX(t)=E(eitx)
  • |eitx|1
  • ϕ(t)=ωeitx(ω)
  • Caracterise la loi d'une v.a, i.ei
    ϕX=ϕYX
    et
    Y
    suivent la meme loi

Lois marginales

  • Lois des v.a
    Xi
  • Impossible, sans hypothese supplementaire, de determiner la loi conjointe a partir des lois marginales

Matrice de covariance

  • Matrice carre d'ordre
    d
    definie par
    mij=Cov

Indepenance de 2 variables: cas discret

  1. 2 va
    X
    et
    Y
    sont dites independantes si, pour tout reel
    x
    et
    y
    de leur supports respectifs:
  2. P(Xx)
  3. 2 variables aleatoires sont independantes si:

Definition

  • Un vecteur aleatoire
    (X1,...,Xd)
    est dit gaussien si toute combinaison des VA
    Xk
    est gaussienne
  • Un vecteur gaussien est entierement caracterise par
    m=(E(X1),...,E(Xd))T
    et sa matrice de variance-covariances
    Σ
    . Sa loi sera notee
    N(m,Σ)
    et nous parlerons de loi normale multidimensionnelle

Proposition

Si

X est un vecteur gaussien et
A
est une application lineaire definie sur
R+

Y=AX
est un vecteur gaussien

L'image d'un vecteur gaussien par une application lineaire est un vecteur gaussien.

Comment prouver que la d-ieme composante est gaussienne ?
Soit

(X1,X2,X3) un vecteur gaussien. Pourquoi
X3
suit-elle une loi gaussienne ?
(001)application lineaire(X1X2X3)=X3

On considere Leo et Alexandre jouent a un jeu de pile ou face et font bourses communes.

Leo
pile 10 €
face -10 €
Alexandre Proba
Image 10 € 1/2
SCIA 5 € 1/10
GISTRE -100 € 4/10

Ils vont pas en cours les SCIA - Alexandre

On a

(X;Y) avec
X
les gains de Leo et
Y
les gains de Alexandre. Les deux VA sont independantes

P(X=1;Y=10)=12×12=14P(X=10;Y=100)=12×410=0,5(E(X);E(Y))=(0;34,5)

Proposition

Soit

X=(X1,...,Xd) un vecteur gaussien.
Les variables aleatoires
X1,...Xd
sont independantes si et seulement si la matrice
Σ
est diagonale.
Cov(UV)=E(UV)E(U)×E(V)

Σ=(Var(U)Cov(U,V)Cov(U,V)Var(U))

Convergence presque sure (p.s.)

  1. (Xi)
    suite de variables aleatoires sur le meme espace
    Ω
    et
    X
    une variable aleatoire egalement definie
    Ω
  2. convergence ponctuelle
  3. implique tous les autres
    limn+Xn(ω)=Y(ω)
    pour tous
    ωΩ

Convergence en probabilite

  1. Meme cadre que precedemment
  2. ε>0,limn+P(|XnX|ε)=0

Convergence en loi

  1. Meme cadre que precedemment
  2. limn+FXn=FX

Theoreme de Paul Levy

  1. Si la suite de v.a.
    (Xn)
    converge en loi vers une v.a.
    X
    alors
  2. limn+πXn=ϕX(t)

Convergence
L2

  1. aussi appelee convergence en moyenne quadratique
  2. limn+E(|XnX|2)=0
  3. n'a de sens que pour les VA telles que
    E(X2)<+
  4. implique la convergence en probabilite

Convergence
L1

  1. aussi appelee convergence en moyenne
  2. limn+E(|XnX|)=0

Loi forte des grands nombres

Soit

(Xi) une suite de VA i.i.d. (independant et suivat la meme loi)

limn+Xn=E(X)

au sens de la convergence p.s. ou

Xn:=X1+...+Xnn

Cas unidimensionnel

  1. Soit
    (Xi)
    une suite v.a. i.i.d.
  2. Noton
    m:=E(Xi)
    et
    σ2=V(Xi)

X1 et
X2
deux v.a. independantes.
ϕX1+X2(t)=ϕX1(t)+ϕX2(t)

Preuve

ϕX1+X2(t)=E(eit(X1+X2))=E(eitX1)E(eitX2)
Car les v.a. sont independantes
ϕX1+X2=