--- tags: Analyse Statistique 2, 2022, Cours --- # [Fiche] ASE2 - Lois Usuelles ```python= from math import * import numpy as np import scipy as sp from scipy.stats import * ``` # Lois discrètes ## Loi discrète uniforme Loi de probabilité discrète indiquant une probabilité de se réaliser identique (équiprobabilité) à chaque valeur d’un ensemble fini de valeurs possibles. Une variable aléatoire qui peut prendre n valeurs possibles k1 , k2 , …, kn, suit une loi uniforme lorsque la probabilité de n’importe quelle valeur ki est égale à $\frac{1}{n}$. X={1,2,3,...,n} - $P(X = k) =$ $\frac{1}{n}$ ∀k= 1,2,...,n - $E(X) =$ $\frac{n + 1}{2}$ - $V(X) =$ $\frac{n^2 - 1}{12}$ ```python= # de begin à end begin = 1 end = 3 k = 2 prob = randint.pmf(k, end+1, begin) print("La probabililté de {} réussites est {}.".format(k, n, prob)) variance = randint.var(begin, end+1) print("La variance est de {}".format(variance)) esp = randint.expect(args=(begin,end+1)) print("L'espérance est de {}".format(esp)) ``` ## Loi Binomiale $B(n, p)$ La loi binomiale modélise la fréquence du nombre de succès obtenus lors de la répétition de plusieurs expériences aléatoires identiques et indépendantes. On considère une expérience aléatoire E et un événement A lié à E, de probabilité non nulle, avec P(A) = p. On appelle succès, la réalisation de A et échec, celle de - $P(X = k) =$ $\binom{n}{k}$$p^k$$(1 - p)^{n-k}$ avec $\binom{n}{k}$ = $\frac{n!}{k!(n-k)!}$ - $E(X) =$ $np$ - $V(X) =$$npq$ avec $q = 1 - p$ - ```python= # Loi binomiale k = 6 # nombre de réussites n = 20 # n évènements / tirages p = 0.3 # probabilité de réussite prob = binom.pmf(k, n, p) print("La probabililté de {} réussites sur {} évènements est {}.".format(k, n, prob)) variance = binom.var(n , p) print("La variance est de {}".format(variance)) esp = binom.expect(args=(n , p)) print("L'espérance est de {}".format(esp)) ``` ## Loi de Bernouilli de paramètre $p : B(p)$ $X$ ne peut prendre que les valeurs $1$ ou $0$, c'est une distribution discrète de probabilité, qui prend la valeur $1$ avec la probabilité $p$ et $0$ avec la probabilité $q = 1 – p$. - $P(X = k) = p$ et $P(X = 0) = 1 - p = q$ - $E(X) = p$ - $V(X) = p(1 - p)$ ```python= # Loi de Bernouilli k = 0 # P(X = k) p = 0 # probabilité de réussite prob = bernoulli.pmf(k, p) print("La probabililté de {} réussites est {}.".format(k, prob)) variance = bernoulli.var(p) print("La variance est de {}".format(variance)) esp = bernoulli.expect(args=(p,)) print("L'espérance est de {}".format(esp)) ``` ## Loi de Poisson : $P(λ)$ (λ paramètre) Décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. - $P(X = k) = \frac{λ^k}{k!}e^{-λ}$ - $E(X) = V(X) = λ$ ```python= # Loi de Poisson k = 7 mu = 5 prob = poisson.pmf(k, mu) print("La probabililté de {} réussites est {}.".format(k, prob)) variance = poisson.var(mu) print("La variance est de {}".format(variance)) esp = poisson.expect(args=(mu,)) print("L'espérance est de {}".format(esp)) ``` ## Loi géométrique La loi géométrique apparaît lorsque l’onrépèteune même expérience, defaçon indépendante, et que l’onattend qu’un événement se réalisele nombre de fois où unévénement se réalise. Précisément, on considère le numéro de l’expérience à laquelle survientle premier succès. - $P(X = k) = (1 - p)^{k - 1}p$ avec $∀k∈N∗$ - $E(X) = \frac{1}{p}$ - $V(X) = \frac{1 - p}{p^2}$ ```python= k = 0 p = 0 prob = geom.pmf(k, p) print("La probabililté de {} réussites est {}.".format(k, prob)) variance = geom.var(p) print("La variance est de {}".format(variance)) esp = geom.expect(args=(p,)) print("L'espérance est de {}".format(esp)) ``` # Lois continues usuelles ## Loi uniforme sur $[a,b]$ Tous les intervalles de même longueur inclus dans le support de la loi ont la même probabilité - $f(x) = \left\{ \begin{array}{ll} \frac{1}{b - a} & ∀x∈[a,b] \\ 0 & \mbox{sinon.} \end{array} \right.$ - $E(X) = \frac{a + b}{2}$ - $V(X) = \frac{(b - a)^2}{12}$ ```python= a = 1 b = 2 rv = uniform(a, b) x = 1 prob = rv.pdf(x) print("La probabilité de k est : {}".format(prob)) variance = rv.var() print("La variance est de {}".format(variance)) esp = rv.expect() print("L'espérance est de {}".format(esp)) ``` ## Loi exponentielle de paramètre λ Modélise la durée de vie d'un phénomène sans mémoire, ou sans vieillissement, ou sans usure : la probabilité que le phénomène dure au moins s + t heures sachant qu'il a déjà duré t heures sera la même que la probabilité de durer s heures à partir de sa mise en fonction initiale. En d'autres termes, le fait que le phénomène ait duré pendant t heures ne change rien à son espérance de vie à partir du temps t. - $f(x) = \left\{ \begin{array}{ll} λe^{-λx} & x > 0 \\ 0 & \mbox{sinon.} \end{array} \right.$ - $E(X) = \frac{1}{λ}$ - $V(X) = \frac{1}{λ^2}$ ```python= lamb = 1 # valeur de λ exp = expon(scale=1/lamb) x = 1 # ce que tu veux prob = exp.pdf(k) print("La probabilité de k est : {}".format(prob)) variance = exp.var() print("La variance est de {}".format(variance)) esp = exp.expect() print("L'espérance est de {}".format(esp)) ``` ## Loi gamma de paramètre $γ(r)$ ```python= r = 1 x = 1 prob = gamma.pdf(x, r) print("La probabilité de k est : {}".format(prob)) variance = gamma.var(r) print("La variance est de {}".format(variance)) esp = gamma.expect(args=(r,)) print("L'espérance est de {}".format(esp)) ``` ## Loi normale $N(m,σ)$ ```python= x = 1 m = 0 σ = 1 ```