# Probabilidad y estadística - Parcial 2
## Contenidos previos que sirven
$P(A/B) =$ $P(A\cap{B})\over{P(B)}$
## Variables aleatorias
Toda función X que asigna a c/u de los elementos del espacio muestral S un número real X(s)
Rx es el recorrido de la imagen o variable. Posibles valores de X
* Se usan letras mayúsculas.
### Tipos de variables aleatorias
* Discretas: su recorrido es un conjunto discreto
* Contínuas: su recorrido no es un conjunto numerable. Esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de números naturales.
### Variables aleatorias discretas
#### Condiciones de las variables discretas
Se dice que una variable aleatoria X es discreta si a cada valor posible xi que toma la variable se le puede asociar un número real p(xi) = p(X=xi) llamado probabilidad de x que satisface:
$p(X_{i}) >= 0 \space \forall{i}$ -> todas tienen que tener una probabilidad de que pase
$\sum_{i=1}^{∞}p(X_{i}) = 1$ -> la suma de todas las probabilidades debería dar 1
La función p definida se llama función de probabilidad de X o función de peso.
El conjunto de pares $(x_{i}, p(x_{i}))$ es la distribución de probabilidades de X.
#### Función de probabilidades acumuladas
Definida como $F(x)=P(X\leqslant{x})=\sum_{t\leqslant{x}}f(t)$ $\space \space-∞<x<∞$
**Propiedades**
$0\leqslant{F(x)\leqslant{1}}$
$F(X_{i})\geqslant{F(X_{j})}$ $\space \forall{x_{i} \geqslant{x_{j}}}$
$P(X > X) = 1-F(x)$
**Propiedades sobre probabilidades puntuales**
$P(X = x) = F(x) - F(x - 1)$ -> Si quiero la probabilidad puntual de x, resto la acumulada en ese valor, menos la acumulada en el anterior.
$P(x_{i}\leqslant{X\leqslant{x_{j}}}) = F(x_{j}) - F(x_{i} - 1)$
**Para representarlo se usa el gráfico de escalón**
#### Variables aleatorias contínuas
* Pueden tomar infinitos valores dentro de la recta real
* No se plantean probabilidades aisladas
* Se calcula la probabilidad con respecto a un intervalo. Para esto se usa la función de densidad y suponiendo que bajo dicha curva hay una unidad de area
## Función de densidad
Se define una función de densidad de una v.a. contínua que cumple con las propiedades:
1. $f(x)\geqslant{0}$
2. $\int_{-∞}^{∞}{f(x)dx} = 1$
dado a < b
$P[a\leqslant{x\leqslant{b}}] = \int_{a}^{b}{f(x)dx}$
## Función de distribución
Probabilidad de que la variable sea menor o igual que un valor particular.
$F(x)=P(X\leqslant{x}) = \int_{-∞}^x{f(t)dt}$
Propiedades:
1. $F'(x) = F(x)$ -> la derivada de la función de distribución es la función de densidad
2. $P(a\leqslant{X{\leqslant{b}}}) = F(b) - F(a)$
Si me pide mayor, no puedo usar la función acumulada por lo que tengo que usar el suceso contrario.
Ejemplo de búsqueda de a
Si $f(x) = x^{2}$ $\space 0<=x<=1$
y
$f(x>a) =$ $1\over{4}$
$f(x\leqslant{a}) =$ $3\over{4}$
$a^{2}=$$3\over{4}$
### Esperanza matemática
Valor promedio cuando se realiza muchas veces un experimento
**Definición**
Sea X una variable aleatoria cualquiera, simbolizaremos con E(X) o μ al valor esperado o esperanza matemática de X:
**Significado de la esperanza**
Valor medio teórico de todos los valores que puede tomar la variable. Representa una medida centralización. Conlleva la necesidad de hacer muchas veces el mismo experimento
**En variables discretas**
E(X) = μ = $\sum_{i=1}^{n(∞)}{x_{i}p(x_{i})}$
**En variables contínuas**
$\int_{-∞}^{∞}{xf(x)dx}$
### Varianza matemática
$σ²=E(X²)-(E(X))²$
O
$σ²=\sum_{i=x}^{?}{p(i)*(i-promedio)²}$
## Modelos discretos
### Distribución binomial
* Todo experimento que tenga resultados binarios y cuyos ensayos sean independientes
La función de probabilidad de la variable aleatoria binomia X, el número de éxtiso en n experimentos independientes es
$P(X=x)=$$n\choose{x}$$p^{x}q^{n-x}$
n = número de observaciones, p es la probabilidad de éxito, q es la probabilidad de fracaso y p + q = 1
Características:
* El experimento consiste en n intentos repetidos.
* Los resultados de cada uno de los intentos pueden clasificarse como éxito o como fracaso.
* La probabilidad de éxito representada por p, permanece constante para todos los intentos.
* Los intentos repetidos son independientes.
### Distribución hipergeométrica
* Experimento similar a la binomial pero sin reemplazo.
* Tenemos como dato la población que posee N elementos de los cuales $N_{1}$ son de una clase determinada y $N_{2}$ son de otra clase. $N_{1}+N_{2}=N.
* Ambas clases son mutuamente excluyentes y exhaustivas
* Se extrae una musetra de n elementos sin reemplazo.
La función es:
$P(X=x)_{N_{1},N_{2},n}=$${N_{1}\choose{x}}{N_{2}\choose{n-x}}\over{N_{1}+N_{2}\choose{n}}$
x=0,1,2,...,n y $N_{1}+N_{2}=N$
**Diferencia con binomial**
* En la binomial las distintas observaciones eran independientes.
* En la hipergeométrica son dependientes.
* En la distribución binomial el muestreo debe realizarse con reemplazo o reposición
* En la hipergeométrica el muestreo se realiza sin reemplazo.
Pruebas de resistencia, vida útil.
### Distribución de Poisson
Describe el comportamiento de una varaible aleatoria que representa el número de resultados observados con una determinada caraterística durante un intervalo de tiempo dado o unidad de espacio específica.
**Teorema de la distribución de Poisson como límite de la binomial**
Teo:
Sea X una variable aleatoria binomial con distribución de probabilidad B(n,p).
Cuando $n->∞, p->0$ y $λ=n,p$ permanece constante:
$B(x;n,p)->p(x;λ)$
**Formula**
$\frac{e^{-λ}*λ^{x}}{x!}$
## Variables aleatorias contínuas
### Distribución normal
* Cuando el p > 0.10
* Tiene forma de campana
* Depende de μ y σ
* En μ está el punto medio
* En μ-σ y μ+σ hay un punto de inflexión. A la izquierda es cóncava hacia abajo y a la derecha es cóncava hacia arriba. Después y antes de 3 desviaciones la diferencia con el eje x tiende a cero.
* Tiene una única moda que coinvide con su media y su mediana.
* La curva normal es asintótica al eje X.
* Es simétrica con respecto a su media. 50% atrás y 50% adelante
$F(x) = \int_{-∞}^{x}{\frac{1}{σ\sqrt{2π}}}$$e^{-\frac{(x-μ)²}{2σ²}}$$dx$
#### Distribución normal estándar
* Su media es 0, su varianza 1 y su desviación estándar 1.
* La curva f(x) es simétrica respecto del eje de Y.
* Tiene un máximo en el eje de Y.
* Tiene dos puntos de inflexión en z=1 y z=-1
#### Desviación estándar
La desviación estándar (σ) determina el grado de apuntamiento de la curva. Cuanto mayor sea σ más se dispersarán los datos en torno a la media y la curva será más plana.
#### Media
La media indica la posición de la campana, de modo que para diferentes valores la gráfica es desplazada sobre el eje horizontal. μ.
* El 68% de los datos se encuentra en la media +- 1 desviación
* El 95% de los datos se encuentra en la media +- 2 desviaciones
* El 99,7% de los datos se encuentra en la media +- 3 desviaciones
#### Área bajo la curva
$P(Z\leqslant{a}) -> Tablas$
$P(Z>a) -> 1 - P(Z\leqslant{a})$
$P(a<Z\leqslant{b}) -> P(Z\leqslant{b})-P(Z\leqslant{a})$
#### Área bajo la curva (búsqueda de a)
Buscando valores P(Z<=a) = x si el x no existe, se busca el que tenga MENOR DIFERENCIA. Si la diferencia es la misma para arriba o para abajo, se realiza un promedio.
* Si es < o <= se busca directamente en la tabla.
* Si es >, se plantea que 1-P(Z<=a)=x. Luego 1-x=P(Z<=a). Finalmente se procede igual que en el caso de menor.
**Propiedades**
* $P(Z\leqslant{a}) = x$ -> este es el normal que no requiere hacer nada.
* $P(Z\geqslant{a}) = 1-F(a)$
* $P(Z\leqslant{-a}) = 1-P(Z\leqslant{a})$
* $P(-a\leqslant{Z\leqslant{a}}) = P(Z\leqslant{a}) - P(Z\leqslant{-a})$
* Si se está calculando $P(-a\leqslant{Z\leqslant{a}})=k$, se puede demostrar que $P(a)=0.5+\frac{k}{2}$
#### Valor Z
Distancia entre un valor seleccionado (x) y la media (μ), dividida por la desviación estándar (σ).
$Z=\frac{X-μ}{σ}$
Al determinar el valor **z** empleando la fórmula anterior, es posible encontrar el área de probabilidad bajo cualquier curva normal haciendo referencia a la distribución normal **estándar**.
Los valores de Z son transformaciones que se pueden hacer a los valores de una distribución normal cualquiera, **nos da su distancia respecto a la media, expresándolas en unidades de desviación estándar.**
#### Asimetría de la distribución binomial
Es posible predecir la asimetría de toda distribución binomial en función del valor de sus parámetros, especialmente de la probabilidad de éxito p.
* Si p < 1/2, n < 30 entonces la distribución binomial será asimétrica a derecha
* Si p > 1/2, n < 30 entonces resultará asimétrica a izquierda
* Si p = 1/2 entonces esta dsitribución resulta simétrica sin importar el tamaño de muestra n
**Aproximación de la distribución binomial a la normal**
$Z=\frac{X-np}{\sqrt{n*p*q}}$
$μ=np$
$σ=\sqrt{n*p*q}$
**Aproximación de Poisson a normal**
$Z=\frac{X-lambda}{\sqrt{lambda}}$
#### Factor de conversión
Por convención se toma 0.5
**Pasos**
1. Pasar a desigualdad amplia
2. Hacer el factor de corrección
3. Tipificar
4. Utilizar tabla de distribución normal

###### tags: `resumenes` `proba`