---
tags: fiche
---
# Fiche - Test classique
## Informations
Retrouver sur le drive les documents suivants :
- Liste des lois de probabilités usuellles
- Table de la loi normale
*(Projet > Préparation des partiels > TEC1 > Outils)*
## Rappel de probabilité
### Probabilité de A sachant B
$$ P(A/B) = \frac{P(B \cap A)}{P(B)} $$
## Fonctions caractéristiques
:::info
**Définition**
La fonction caractéristique d'une variable aléatoire est la transformée de Fourier de sa loi de probabilité :
$$ \varphi_X(t)=E(e^{itX}) $$
Si X est continue :
$$ \varphi_X(t) = \int_{\mathbb{R}} e^{itx}f(x)dx $$
Si X est discrète :
$$ \varphi_X(t) = \sum_k e^{itk}P(X=k) $$
:::
*Exemple dans l'exercice 1*
:::danger
**Formule de Mac-Laurin**
$$ \varphi_X(t) = \sum_{k=0}^{+\infty} \frac{t^k}{k!}i^kE(X^k) $$
:::
:::spoiler Exercice 1




:::
## Convergence en statistiques
:::danger
**Inégalité de Tchebyshev**
$\forall\epsilon>0,$
$$ P(|X_n-E(X_n)|\geq\epsilon)\leq \frac{V(X_n)}{\epsilon^2} $$
:::
$X$ est une variable aléatoire continu distribuée suivant la loi normal (ou la loi gaussienne) avec une moyenne $m = E(X)$ et un écrat type $\sigma$.
### Pour calculer une probabilité
$$
P(X \leq a) = P \left[ \frac{ X-m } { \sigma } \leq \frac{a-m}{\sigma} \right]
$$
$$
P(a \leq X \leq b ) = P \left[ \frac{a-m}{\sigma} \leq \frac{ X-m } { \sigma } \leq \frac{b-m}{\sigma} \right]
$$
$$
P(X \geq a) = 1 - P(X \leq a)
$$
*Exemple dans l'exercice 2, question 1*
### Pour trouver une intervalle centrée réduite
*Exemple dans l'exercice 2, question 2*
:::spoiler Exercice 2




:::
:::spoiler Exercice 3
**Pour les détails des calculs, voir la méthode de l'exercice 2**


:::
## Approximation par la loi normale
:::danger
**Théorème 1**
$X_n$ étant une suite de variable binomiale $B(n,p)$ alors
$$ \frac{X_n - np}{\sqrt{npq}} \xrightarrow[n -> +\infty]{L} N(0,1) $$
La moyenne : $m = np$
L'écart type : $\sigma = \sqrt{npq}$
:::
:::danger
**Théorème 2**
Soit $X_\lambda$ une famille de variables de Poisson alors
$$ \frac{X_\lambda - \lambda}{\sqrt{\lambda}} \xrightarrow[\ \lambda -> +\infty]{L} N(0,1) $$
:::
*Exemple dans l'exercice 10, question 1*
:::spoiler Exercice 10
**Pour les détails des calculs, voir la méthode de l'exercice 2**

:::
## Estimation
:::info
**Définition**
On appelle vraisemblance de $\theta$ la densité de l'échantillon $(X_1, X_2, ... X_n)$ notée
- Cas discret
$$ L(x_1, x_2, ..., x_n) = \prod_{i=1}^{n}P(X_i=x_i) $$
- Cas continu
$$ L(x_1, x_2, ..., x_n) = \prod_{i=1}^{n}f(x_i) $$
:::
*Exemple dans l'exercice 11*
### Méthode du maximum de vraisemblance
Cette méthode consiste, étant donné un échantillon de valeurs $x_1, x_2, ... x_n$ à prendre comme estimation de $\theta$ la valeure de $\theta$ qui rend maximale la vraisemblance $L(x_1, x_2, ..., x_n, \theta)$.
On prend comme estimation de \theta la solution de :
$$ \frac{\partial}{\partial\theta}lnL(X,\theta) = 0 $$
*Exemple dans l'exercice 12, question 2*
### Quantité d'information de Fisher
:::info
**Définition**
On appelle quantité d'information de Fisher $I_n(\theta)$ apportée par un n-échantillon $(X_1, X_2, ... X_3)$ sur le paramètre $\theta$
$$ I_n(\theta) = -E(\frac{\partial^2lnL}{\partial\theta^2}) $$
:::
*Exemple dans l'exercice 12, question 5*
### Estimateur parfait
Un estimateur T de $\theta$ est parfait s'il possède les 3 qualités :
- T est sans biais
$\Rightarrow E(T)=\theta$
- T est convergent
$\Rightarrow T\xrightarrow{P}\theta$
- T est efficace
$\Rightarrow V(T)=\frac{1}{I_n(\theta)}$
*Exemple dans l'exercice 12, questions 3, 4, 5*
:::spoiler Exercice 11


:::
:::spoiler Exercice 12




:::