# Probabilidad y estadística - Parcial 2 ## Contenidos previos que sirven $P(A/B) =$ $P(A\cap{B})\over{P(B)}$ ## Variables aleatorias Toda función X que asigna a c/u de los elementos del espacio muestral S un número real X(s) Rx es el recorrido de la imagen o variable. Posibles valores de X * Se usan letras mayúsculas. ### Tipos de variables aleatorias * Discretas: su recorrido es un conjunto discreto * Contínuas: su recorrido no es un conjunto numerable. Esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de números naturales. ### Variables aleatorias discretas #### Condiciones de las variables discretas Se dice que una variable aleatoria X es discreta si a cada valor posible xi que toma la variable se le puede asociar un número real p(xi) = p(X=xi) llamado probabilidad de x que satisface: $p(X_{i}) >= 0 \space \forall{i}$ -> todas tienen que tener una probabilidad de que pase $\sum_{i=1}^{∞}p(X_{i}) = 1$ -> la suma de todas las probabilidades debería dar 1 La función p definida se llama función de probabilidad de X o función de peso. El conjunto de pares $(x_{i}, p(x_{i}))$ es la distribución de probabilidades de X. #### Función de probabilidades acumuladas Definida como $F(x)=P(X\leqslant{x})=\sum_{t\leqslant{x}}f(t)$ $\space \space-∞<x<∞$ **Propiedades** $0\leqslant{F(x)\leqslant{1}}$ $F(X_{i})\geqslant{F(X_{j})}$ $\space \forall{x_{i} \geqslant{x_{j}}}$ $P(X > X) = 1-F(x)$ **Propiedades sobre probabilidades puntuales** $P(X = x) = F(x) - F(x - 1)$ -> Si quiero la probabilidad puntual de x, resto la acumulada en ese valor, menos la acumulada en el anterior. $P(x_{i}\leqslant{X\leqslant{x_{j}}}) = F(x_{j}) - F(x_{i} - 1)$ **Para representarlo se usa el gráfico de escalón** #### Variables aleatorias contínuas * Pueden tomar infinitos valores dentro de la recta real * No se plantean probabilidades aisladas * Se calcula la probabilidad con respecto a un intervalo. Para esto se usa la función de densidad y suponiendo que bajo dicha curva hay una unidad de area ## Función de densidad Se define una función de densidad de una v.a. contínua que cumple con las propiedades: 1. $f(x)\geqslant{0}$ 2. $\int_{-∞}^{∞}{f(x)dx} = 1$ dado a < b $P[a\leqslant{x\leqslant{b}}] = \int_{a}^{b}{f(x)dx}$ ## Función de distribución Probabilidad de que la variable sea menor o igual que un valor particular. $F(x)=P(X\leqslant{x}) = \int_{-∞}^x{f(t)dt}$ Propiedades: 1. $F'(x) = F(x)$ -> la derivada de la función de distribución es la función de densidad 2. $P(a\leqslant{X{\leqslant{b}}}) = F(b) - F(a)$ Si me pide mayor, no puedo usar la función acumulada por lo que tengo que usar el suceso contrario. Ejemplo de búsqueda de a Si $f(x) = x^{2}$ $\space 0<=x<=1$ y $f(x>a) =$ $1\over{4}$ $f(x\leqslant{a}) =$ $3\over{4}$ $a^{2}=$$3\over{4}$ ### Esperanza matemática Valor promedio cuando se realiza muchas veces un experimento **Definición** Sea X una variable aleatoria cualquiera, simbolizaremos con E(X) o μ al valor esperado o esperanza matemática de X: **Significado de la esperanza** Valor medio teórico de todos los valores que puede tomar la variable. Representa una medida centralización. Conlleva la necesidad de hacer muchas veces el mismo experimento **En variables discretas** E(X) = μ = $\sum_{i=1}^{n(∞)}{x_{i}p(x_{i})}$ **En variables contínuas** $\int_{-∞}^{∞}{xf(x)dx}$ ### Varianza matemática $σ²=E(X²)-(E(X))²$ O $σ²=\sum_{i=x}^{?}{p(i)*(i-promedio)²}$ ## Modelos discretos ### Distribución binomial * Todo experimento que tenga resultados binarios y cuyos ensayos sean independientes La función de probabilidad de la variable aleatoria binomia X, el número de éxtiso en n experimentos independientes es $P(X=x)=$$n\choose{x}$$p^{x}q^{n-x}$ n = número de observaciones, p es la probabilidad de éxito, q es la probabilidad de fracaso y p + q = 1 Características: * El experimento consiste en n intentos repetidos. * Los resultados de cada uno de los intentos pueden clasificarse como éxito o como fracaso. * La probabilidad de éxito representada por p, permanece constante para todos los intentos. * Los intentos repetidos son independientes. ### Distribución hipergeométrica * Experimento similar a la binomial pero sin reemplazo. * Tenemos como dato la población que posee N elementos de los cuales $N_{1}$ son de una clase determinada y $N_{2}$ son de otra clase. $N_{1}+N_{2}=N. * Ambas clases son mutuamente excluyentes y exhaustivas * Se extrae una musetra de n elementos sin reemplazo. La función es: $P(X=x)_{N_{1},N_{2},n}=$${N_{1}\choose{x}}{N_{2}\choose{n-x}}\over{N_{1}+N_{2}\choose{n}}$ x=0,1,2,...,n y $N_{1}+N_{2}=N$ **Diferencia con binomial** * En la binomial las distintas observaciones eran independientes. * En la hipergeométrica son dependientes. * En la distribución binomial el muestreo debe realizarse con reemplazo o reposición * En la hipergeométrica el muestreo se realiza sin reemplazo. Pruebas de resistencia, vida útil. ### Distribución de Poisson Describe el comportamiento de una varaible aleatoria que representa el número de resultados observados con una determinada caraterística durante un intervalo de tiempo dado o unidad de espacio específica. **Teorema de la distribución de Poisson como límite de la binomial** Teo: Sea X una variable aleatoria binomial con distribución de probabilidad B(n,p). Cuando $n->∞, p->0$ y $λ=n,p$ permanece constante: $B(x;n,p)->p(x;λ)$ **Formula** $\frac{e^{-λ}*λ^{x}}{x!}$ ## Variables aleatorias contínuas ### Distribución normal * Cuando el p > 0.10 * Tiene forma de campana * Depende de μ y σ * En μ está el punto medio * En μ-σ y μ+σ hay un punto de inflexión. A la izquierda es cóncava hacia abajo y a la derecha es cóncava hacia arriba. Después y antes de 3 desviaciones la diferencia con el eje x tiende a cero. * Tiene una única moda que coinvide con su media y su mediana. * La curva normal es asintótica al eje X. * Es simétrica con respecto a su media. 50% atrás y 50% adelante $F(x) = \int_{-∞}^{x}{\frac{1}{σ\sqrt{2π}}}$$e^{-\frac{(x-μ)²}{2σ²}}$$dx$ #### Distribución normal estándar * Su media es 0, su varianza 1 y su desviación estándar 1. * La curva f(x) es simétrica respecto del eje de Y. * Tiene un máximo en el eje de Y. * Tiene dos puntos de inflexión en z=1 y z=-1 #### Desviación estándar La desviación estándar (σ) determina el grado de apuntamiento de la curva. Cuanto mayor sea σ más se dispersarán los datos en torno a la media y la curva será más plana. #### Media La media indica la posición de la campana, de modo que para diferentes valores la gráfica es desplazada sobre el eje horizontal. μ. * El 68% de los datos se encuentra en la media +- 1 desviación * El 95% de los datos se encuentra en la media +- 2 desviaciones * El 99,7% de los datos se encuentra en la media +- 3 desviaciones #### Área bajo la curva $P(Z\leqslant{a}) -> Tablas$ $P(Z>a) -> 1 - P(Z\leqslant{a})$ $P(a<Z\leqslant{b}) -> P(Z\leqslant{b})-P(Z\leqslant{a})$ #### Área bajo la curva (búsqueda de a) Buscando valores P(Z<=a) = x si el x no existe, se busca el que tenga MENOR DIFERENCIA. Si la diferencia es la misma para arriba o para abajo, se realiza un promedio. * Si es < o <= se busca directamente en la tabla. * Si es >, se plantea que 1-P(Z<=a)=x. Luego 1-x=P(Z<=a). Finalmente se procede igual que en el caso de menor. **Propiedades** * $P(Z\leqslant{a}) = x$ -> este es el normal que no requiere hacer nada. * $P(Z\geqslant{a}) = 1-F(a)$ * $P(Z\leqslant{-a}) = 1-P(Z\leqslant{a})$ * $P(-a\leqslant{Z\leqslant{a}}) = P(Z\leqslant{a}) - P(Z\leqslant{-a})$ * Si se está calculando $P(-a\leqslant{Z\leqslant{a}})=k$, se puede demostrar que $P(a)=0.5+\frac{k}{2}$ #### Valor Z Distancia entre un valor seleccionado (x) y la media (μ), dividida por la desviación estándar (σ). $Z=\frac{X-μ}{σ}$ Al determinar el valor **z** empleando la fórmula anterior, es posible encontrar el área de probabilidad bajo cualquier curva normal haciendo referencia a la distribución normal **estándar**. Los valores de Z son transformaciones que se pueden hacer a los valores de una distribución normal cualquiera, **nos da su distancia respecto a la media, expresándolas en unidades de desviación estándar.** #### Asimetría de la distribución binomial Es posible predecir la asimetría de toda distribución binomial en función del valor de sus parámetros, especialmente de la probabilidad de éxito p. * Si p < 1/2, n < 30 entonces la distribución binomial será asimétrica a derecha * Si p > 1/2, n < 30 entonces resultará asimétrica a izquierda * Si p = 1/2 entonces esta dsitribución resulta simétrica sin importar el tamaño de muestra n **Aproximación de la distribución binomial a la normal** $Z=\frac{X-np}{\sqrt{n*p*q}}$ $μ=np$ $σ=\sqrt{n*p*q}$ **Aproximación de Poisson a normal** $Z=\frac{X-lambda}{\sqrt{lambda}}$ #### Factor de conversión Por convención se toma 0.5 **Pasos** 1. Pasar a desigualdad amplia 2. Hacer el factor de corrección 3. Tipificar 4. Utilizar tabla de distribución normal ![](https://i.imgur.com/lEm6JDX.png) ###### tags: `resumenes` `proba`