# PRST - Seance 2
# Definition
- Soit $X$ une v.a (aucune condition prescrite)
- $\phi$ definie sur $\mathbb R$ par: $\phi_X(t) = E(e^{itx})$
- $\vert e^{itx}\vert \le 1$
- $\phi(t)=\int_{\omega}e^{itx(\omega)}$
- Caracterise la loi d'une v.a, i.ei $\phi_X=\phi_Y \Rightarrow X$ et $Y$ suivent la meme loi
# Lois marginales
- Lois des v.a $X_i$
- Impossible, sans hypothese supplementaire, de determiner la loi conjointe a partir des lois marginales
## Matrice de covariance
- Matrice carre d'ordre $d$ definie par $m_{ij} = Cov$
# Indepenance de 2 variables: cas discret
1. 2 va $X$ et $Y$ sont dites *independantes* si, pour tout reel $x$ et $y$ de leur supports respectifs:
2. $P({X\le x})$
3. 2 variables aleatoires sont *independantes* si:
# Definition
- Un vecteur aleatoire $(X_1,...,X_d)$ est dit *gaussien* si toute combinaison des VA $X_k$ est gaussienne
- Un vecteur gaussien est entierement caracterise par $m=(E(X_1),...,E(X_d))^T$ et sa matrice de variance-covariances $\Sigma$. Sa loi sera notee $N(m,\Sigma)$ et nous parlerons de loi *normale multidimensionnelle*
## Proposition
Si $X$ est un vecteur gaussien et $A$ est une application lineaire definie sur $\mathbb R^+$
$Y = AX$ est un vecteur gaussien
:::danger
L'image d'un vecteur gaussien par une application lineaire est un vecteur gaussien.
:::
*Comment prouver que la d-ieme composante est gaussienne ?*
Soit $(X_1, X_2, X_3)$ un vecteur gaussien. Pourquoi $X_3$ suit-elle une loi gaussienne ?
$$
\underbrace{\begin{pmatrix}0 & 0 &1\end{pmatrix}}_{\text{application lineaire}}
\begin{pmatrix}
X_1\\
X_2\\
X_3
\end{pmatrix} = X_3
$$
On considere Leo et Alexandre jouent a un jeu de pile ou face et font bourses communes.
||Leo|
|-|-|
|pile|10 €|
|face|-10 €|
||Alexandre|Proba|
|-|-|-|
|Image|10 €|1/2|
|SCIA|5 €|1/10|
|GISTRE|-100 €|4/10|
> Ils vont pas en cours les SCIA - Alexandre
On a $(X;Y)$ avec $X$ les gains de Leo et $Y$ les gains de Alexandre. Les deux VA sont independantes
$$
P(X=1-;Y=10) = \frac{1}{2} \times \frac{1}{2} = \frac{1}{4}\\
P(X=-10;Y=100) = \frac{1}{2}\times\frac{4}{10} = 0,5\\
(E(X); E(Y)) = (0; -34,5)
$$
## Proposition
Soit $X = (X_1,..., X_d)$ un vecteur gaussien.
Les variables aleatoires $X_1,...X_d$ sont independantes si et seulement si la matrice $\Sigma$ est diagonale.
$Cov(UV) = E(UV) - E(U) \times E(V)$
$$
\Sigma =
\begin{pmatrix}
Var(U) & Cov(U, V)\\
Cov(U, V) & Var(U)
\end{pmatrix}
$$
# Convergence presque sure (p.s.)
1. $(X_i)$ suite de variables aleatoires sur le meme espace $\Omega$ et $X$ une variable aleatoire egalement definie $\Omega$
2. convergence ponctuelle
3. implique tous les autres
$\lim_{n\to+\infty}X_n(\omega) = Y(\omega)$ pour tous $\omega\in\Omega$
# Convergence en probabilite
1. Meme cadre que precedemment
2. $\forall\varepsilon\gt 0, \lim_{n\to+\infty}P(\vert X_n - X\vert\ge \varepsilon) = 0$
# Convergence en loi
1. Meme cadre que precedemment
2. $\lim_{n\to+\infty}F_{X_n} = F_X$
# Theoreme de Paul Levy
1. Si la suite de v.a. $(X_n)$ converge en loi vers une v.a. $X$ alors
2. $\lim_{n\to+\infty}\pi_{X_n} = \phi_X(t)$
# Convergence $L^2$
1. aussi appelee *convergence en moyenne quadratique*
2. $\lim_{n\to+\infty}E(\vert X_n - X\vert^2) = 0$
3. n'a de sens que pour les VA telles que $E(X^2)\lt+\infty$
4. implique la convergence en probabilite
# Convergence $L^1$
1. aussi appelee *convergence en moyenne*
2. $\lim_{n\to+\infty}E(\vert X_n -X\vert) = 0$
# Loi forte des grands nombres
Soit $(X_i)$ une suite de VA i.i.d. (independant et suivat la meme loi)
$$
\lim_{n\to+\infty}\overline{X_n} = E(X)
$$
au sens de la convergence p.s. ou $\overline{X_n} := \frac{X_1 + ... + X_n}{n}$
# Cas unidimensionnel
1. Soit $(X_i)$ une suite v.a. i.i.d.
2. Noton $m:=E(X_i)$ et $\sigma^2 = V(X_i)$
:::info
$X_1$ et $X_2$ deux v.a. independantes.
$$
\phi_{X_1 + X_2}(t) = \phi_{X_1}(t) + \phi_{X_2}(t)
$$
:::
## Preuve
$$
\begin{aligned}
\phi_{X_1 + X_2}(t) &= E(e^{it(X_1 + X_2)})\\
&= E(e^{itX_1})E(e^{itX_2})
\end{aligned}
$$
Car les v.a. sont independantes
$$
\phi_{X_1+X_2} =
$$