--- title: "Unidad I - Distribución de Vectores Aleatorios" --- # 1.1 - Vectores aleatorios Recordando que una v.a. es: $$ X(\omega): \Omega \to \mathbb R $$ ## DEF. - Vector Aleatorio Un vector aleatorio se define tal que $$ \underline{X}(\omega): \Omega \to \mathbb{R}^n $$ También se pueden denotar como $$ (X,Y)\\ (X_1,X_2) $$ ## Ejemplo Se realiza un experimento en el cuál se lanzan 2 dados. Teniendo así: $$ \Omega = \begin{Bmatrix} (1,1), (1,2),...,(1,6)\\ (2,1), (2,2),...,(2,6)\\ .\\ .\\ .\\ (6,1), (6,2), ..., (6,6) \end{Bmatrix} $$ y definimos **dos** variables aleatorias: $$ X: \text{suma de las caras de los dados}\\ Y: \text{diferencia en valor absoluto de las caras de los datos} $$ Por lo tanto, con $$ \omega(4,1) \to (X,Y) = (5,3) $$ En cuanto a los soportes, $$ X \in \{2,3,...,12\}\\ Y \in \{0,1,...,5\} $$ # 1.2 - Función de masa y de densidad conjunta ## DEF. - Función de masa de probabilidad conjunta Sea $(X,Y)$ un vector aleatorio bivariado, entonces la función de masa de probabilidad conjunta, denotada como $f(x,y)$, se define como: $$ f(x,y) = P(X=x,Y=y) $$ Así, $f(x,y)$ define de manera completa el comportamiento **conjunto** de las v.a. $X$ y $Y$. ## Propiedades Se dice que $f(x,y) = P(X=x,Y=y)$ es función de masa de probabilidad conjunta si: + $f(x,y) \geq 0, \forall (x,y) \in \mathbb R^2$ + $\sum_{(x,y)} f(x,y) = 1$ ## Ejemplo Se lanzan 3 monedas justas y definimos: + $X:=$ # de soles en los primeros dos lanzamientos + $Y:=$ # de águilas en los últimos dos lanzamientos Entonces definimos $P(X=x, Y=y)$ $$ X \in \{0,1,2\}\\ Y \in \{0,1,2\} $$ Entonces, el espacio muestral se define como: $$ \Omega = \begin{Bmatrix} (A,A,A),(A,A,S),(A,S,A),(S,A,A)\\ (A,S,S),(S,A,S),(S,S,A),(S,S,S) \end{Bmatrix} $$ Entonces, podemos definir $$ f(x,y) = $$ | | 0 | $1$ | 2 | | --- | ---- | ---- | --- | | 0 | 0 | $\frac{1}{8}$ | | | 1 | | | | |2 | | | 0 | ## DEF. - Probabilidad sobre un subconjunto Sea $A$ cualquier subconjunto de $\mathbb R^2$ tal que $A \subseteq \mathbb R^2$ entonces: $$ P [(X,Y) \in A] = \sum_{(x,y) \in A} f(x,y) $$ ## DEF. - Función de densidad conjunta Una función $f(x,y): \mathbb R^2 \to \mathbb R$ se denomina función de densidad conjunta si, para cada $A \subseteq \mathbb R^2$: $$ P[(X,Y) \in A] = \int \int_A f(x,y)dxdy $$ ## Propiedades Se dice que $f(x,y)$ es función de densidad conjunta si: + $f(x,y) \geq 0, \forall (x,y) \in \mathbb R^2$ + $\int \int_{\mathbb R^2} f(x,y) dxdy = 1$ ## Ejemplo Sea $f(x,y) = 6xy^2 \mathbb I_{(0<x,y<1)}^{(x,y)}$ verifiquemos que es función de densidad conjunta. Tenemos $$ \int_0^1 \int_0^1 6xy^2 dx dy \\ = \int_0^1 \frac{6x^2y^2}{2} \Big|_{x=0}^{x=1} dy \\ = \int_0^1 3y^2\\ = y^3 \Big|_{y=0}^{y=1} \\ = 1 $$ # 1.3 Función de distribución conjunta Partimos de la definición general de probabilidad sobre un subconjunto $A$: $$ P[(X,Y) \in A] = \int \int_A f(x,y)dxdy $$ Para la función de distribución $A$ es un subconjunto particular tal que: $$ (X\leq x, Y \leq y) $$ Por lo tanto, $$ P[(X,Y) \in A] \\ = P[X \leq x, Y \leq y] \\ = \int_{-\infty}^y \int_{-\infty}^{x} f(x,y)dxdy \\ = F(x,y) $$ ## Propiedades + No decreciente + Diferenciable + $\lim_{x \to \infty}F(x,y) = F_Y(y)$ + $\lim_{y \to \infty}F(x,y) = F_X(x)$ + $\lim_{(x,y) \to (\infty,\infty)}F(x,y) = 1$ + $\lim_{(x,y) \to (-\infty,-\infty)}F(x,y) = 0$ ## DEMOSTRAR POR 1 DÉCIMA EXTRA Recordemos, $$ P(a \leq X \leq b) = F(b) - F(a) $$ Sea $$ R = \{(x,y) : a \leq x \leq b, c \leq y \leq d \}\\ $$ Entonces $$ P[(X,Y) \in R] = F(b,d) - F(a,d) - F(b,c) + F(a,c) $$ ## Función de distribución conjunta (cont.) Por lo mencionado, recordamos que ### Caso contínuo $$ F(x,y) = \int_{-\infty}^y \int_{-\infty}^x f(u,v)dudv $$ ### Caso discreto $$ \sum_{v \to -\infty}^y \sum_{u \to -\infty}^x f(u,v) $$ ## Ejemplo Sea $$ f(x,y) = e^{-y} \mathbb I_{[0<x<y<\infty]}^{(x,y)} $$ Calcular $$ P(X + Y \leq 1) $$ Tenemos que $$ A = \{(x,y) : x + y \leq 1\} $$ Entonces $$ P(X+Y \leq 1) = \int_A \int e^{-y} dxdy $$ Resolvemos la integral $$ \int_0^{\frac{1}{2}} \int_x^{1-x} e^{-y} dydx \\ = \int_0^{0.5} (-e^{-y} \Big|_{y=x}^{y=1-x})dx .\\ .\\ .\\ = 1+ e^{-1} - 2e^{-0.5} $$ # 1.4 - Distribuciones Marginales ## TEO Sea $(X,Y)$ un vector aleatorio discreto con función de masa de probabilidad conjunta (FMPC), entonces las funciones de masa de probabilidad marginales de $X$ y $Y$ estan dadas por: $$ f_X(x) = \sum_{y \in \mathbb y} f(x,y) \\ f_Y(x) = \sum_{x \in \mathbb x} f(x,y) $$ Donde $\mathbb x$ y $\mathbb y$ son el soporte de $X$ y de $Y$ respectivamente. # 1.5 - Distribuciones condicionales ## NOTA $$ f(y|x) = \frac{f(x,y)}{f_X(x)} \\ f(x | y) = \frac{f(x,y)}{f_Y(y)} $$ Entonces, $$ \frac{f_X(x)}{f_Y(y)} = \frac{f(x|y)}{f(y|x)} $$ ## Regla de Bayes $$ f(x|y) = \frac{f(x,y)}{f_Y(y)} $$ Por otro lado, $$ f_Y(y) = \int_{-\infty}^{\infty} f(x,y)dx $$ Entonces, $$ f(x|y) = \frac{f(x,y)}{\int_{-\infty}^{\infty}f(x,y)dx} $$ Entonces, $$ f(x|y) = \frac{f(y|x) f(x)}{\int_{-\infty}^{\infty} f(y|x)f_X(x)dx} $$ Lo cual nos regresa al **Teorema de Bayes** $$ P(X=x | Y= y) = \frac{P(Y=y|X=x)P(X=x)}{\sum_X P(Y=y | X=x) P(X=x)} $$ ## Ejemplo Suponga que el número de accidentes automovilísticos en el que un conductor pueda estar involucrado durante un año es una v.a. $Y$ que se distribuye $Y \sim \text{Po}(\lambda)$, donde la $\lambda$ depende del conductor. Como $\lambda$ no es constante, se escribirá como $\Lambda$, y es variable aleatoria. Además, $$ \Lambda \sim \Gamma(\alpha, \beta) $$ Entonces, defino $$ Y|\Lambda:= \text{El número de accidentes dato el tipo de conductor} $$ Calcular + $f_Y(y)$ + $f(\lambda|y)$ --- Tenemos $$ f_Y(y) = \int_{-\infty}^{\infty}f(y|\lambda)f_{\Lambda}(\lambda)d\lambda \\ = \int_{0}^{\infty} \frac{e^{-\lambda}\lambda^{y}}{y!}\frac{\beta^\alpha}{\Gamma(\alpha)}\lambda^{\alpha-1}e^{-\alpha\beta}d\lambda \\ = \frac{\beta^\alpha}{\Gamma(\alpha)y!} \int_0^{\infty} \lambda^y \lambda^{\alpha-1} e^{-\lambda} e^{-\lambda\beta} d\lambda\\ = \frac{\beta^\alpha}{\Gamma(\alpha)y!} \int_0^{\infty} \lambda^{y+\alpha-1} e^{-\lambda(1+\beta)} d\lambda\\ = \frac{\beta^\alpha}{\Gamma(\alpha)y!} \Gamma(y+\alpha,1+\beta) $$ ### Nota A lo que está dentro de la integral lo podemos llamar **kernel** o **núcleo** de la distribución ya que, amén de las constantes, se puede convertir en otra distribución. Por otro lado, tenemos $$ f(\lambda|y) = \frac{f(y|\lambda)f(\lambda)}{f_Y(y)}\\ = \frac{\frac{\beta^\alpha}{\Gamma(\alpha)y!} \lambda^{\alpha+y+1}e^{-\lambda(1+\beta)}}{\frac{\beta^\alpha}{\Gamma(\alpha)y!}} $$ Al final tenemos que $$ Y | \Lambda \sim \text{Po}(\Lambda)\\ \Lambda \sim \Gamma(\alpha,\beta)\\ Y \sim \frac{\beta^{\alpha}}{(\beta+1)^{\alpha+y}y!} \frac{\Gamma(\alpha+y)}{\Gamma(\alpha)}\\ \Lambda | Y \sim \Gamma(\alpha+y,\beta+1) $$ # 1.6 - Variables Aleatorias Independientes ## DEF - Vectores Aleatorios Independientes Sea $(X,Y)$ un vector aleatorio con función de densidad conjunta $f(x,y)$ y funciones marginales $f_X(x),f_Y(y)$. Entonces, $X$ y $Y$ son v.a. independientes si $\forall x \in X, \forall y \in Y$, $$ f(x,y) = f_X(x)f_Y(y) $$ ### Corolario Si $X$ y $Y$ son v.a. independientes, entonces $$ f(y|x) = f_Y(y) \\ f(x|y) = f_X(x) $$ ## Observación Sea $(X,Y)$ un vector aleatorio con función de densidad conjunta $f(x,y)$. Entonces, $X,Y$ son v.a. independientes si y solo si existen dos funciones $g(x)$ y $h(y)$ tal que $\forall x \in X$ y $\forall y \in Y$, $$ f(x,y) = g(x)h(y) $$ # 1.7 - Momentos de un vector aleatorio Recordando: Sea $g(x)$ una función de una v.a. $X$, se define $$ E[g(x)] = \int_Xg(x)f(x)dx $$ ## DEF Sea $g(X,Y)$ una función de $(X,Y)$ tal que $g(.): \mathbb R \to \mathbb R^2$. Entonces, $g(X,Y)$ es, en si misma, una variable aleatoria y su valor esperado está dado por: ### Caso Discreto $$ E[g(X,Y)] = \sum_{(x,y) \in \mathbb R^2} g(x,y)P(X=x,Y=y) $$ #### Ejemplo - Ejemplo de los dados Definimos $$ g(X,Y) = XY $$ Entonces $$ E[g(X,Y)] = E[XY] = \sum_{(x,y) \in \mathbb R^2} xy P(X=x,Y=y) $$ ### Caso Contínuo $$ E[g(X,Y)] = \int_\mathbb y \int_\mathbb x g(x,y)f(x,y)dxdy $$ #### Ejemplo Sea $f(x,y) = 6xy^2 \mathbb I_{(0<x<1,0<y<1)}^{(x,y)}$. Encontrar $E[XY]$. $$ E[XY] = \int_0^1 \int_0^1 xy6xy^2 dxdy\\ = \int_0^1 \int_0^1 6x^6y^3dxdy\\ =\int_0^1 2x^3y^3 \Big |_{x=0}^{x=1} dy\\ = \int_0^1 2y^3 dy \\ = \frac{1}{2} y^4 \Big|_{y=0}^{y=1}\\ = \frac{1}{2} $$ ## Propiedades El operador $E$ tiene las mismas propiedades lineales que en el caso univariado: 1. El valor esperado de una suma es la suma de los valores esperados. 2. El valor esperado de una función por una constante es la constante por el valor esperado de la función. 3. El valor esperado de una constante es la constante. ## DEF - Valor esperado de un vector El valor esperado de un vector es el vector de los valores esperados $$ E\begin{bmatrix} \begin{pmatrix} g_1(X,Y)\\ g_2(X,Y) \end{pmatrix} \end{bmatrix}= \begin{pmatrix} E[g_1(X,Y)]\\ E[g_2(X,Y)] \end{pmatrix} $$ También se le conoce como vector de medias, donde $$ E(X) = \int_X xf_X(x)dx < \infty \\ E(Y) = \int_Y yf_Y(y)dy < \infty $$ ## Varianza Sea $\underline W = \binom{X}{Y}$. Entonces $$ \text{Var}(\underline W) = E[(\underline W - E(\underline W))^2] \\ = E[(\underline W - E(\underline W))(W - E(\underline W))^T] $$ El valor esperado de una matriz es la matrzi de los valores esperados. $$ \begin{bmatrix} \text{Var}(X), \text{Cov}(X,Y)\\ \text{Cov}(X,Y), \text{Var}(Y) \end{bmatrix} $$ ## DEF - Covarianza Sea $(X,Y)$ un vector aleatorio, se define la coviarianza de $(X,Y)$ como $$ \text{Cov}(X,Y) = E[(X - E(X))(Y - E(Y))] $$ ## TEOREMA - DEMOSTRAR POR DÉCIMA Para cualesquiera v.a. $X,Y$ con $E(X) < \infty$, $E(Y) < \infty$, enotnces $$ \text{Cov}(X,Y) = E(XY) - E(X)E(Y) $$ ### Demostración $$ \text{Cov}(X,Y) = E[(X-E(X))(Y-E(Y))] $$ ## Propiedades - Covarianza + Si $\text{Cov}(X,Y)>0$, entonces la relación de $X$ y $Y$ es positiva. + Si $\text{Cov}(X,Y)<0$, entonces la relación de $X$ y $Y$ es negativa + Si no hay relación entre $X$ y $Y$ (son independientes), entonces $\text{Cov}(X,Y)=0$ ## DEF - Coeficiente de correlación El coeficiente de correlación de dos v.a.s $(X,Y)$ está dado por: $$ \rho_{XY} = \frac{\text{Cov}(X,Y)}{\sqrt{\text{Var}(X)\text{Var}(Y)}} $$ ## Teorema Para cualesquiera variables aleatorias $(X,Y)$: 1. $-1 \leq \rho_{XY} \leq 1$ 2. $\rho_{XY} = 1 \iff \exists a \not = 0, b \in \mathbb R$ tal que $P(Y=aX+b)=1 \forall x,y$ ## Teorema Se dice que si $X$ y $Y$ son v.a independientes, entonces $$ \text{Cov}(X,Y) = 0 \\ \rho_{XY} = 0 $$ ## Teorema Sean $X,Y$ v.a.s independientes y sean $g(X)$ y $h(Y)$ dos funciones, la primera función de $X$ y la segunda función de $Y$. Entonces, $$ E[g(X)h(Y)] = E[g(X)]E[h(Y)] $$ ## Teorema Sean $X$ y $Y$ dos variables aleatorias y $a,b,c \in \mathbb R$. Entonces, $$ \text{Var}(aX+BY+c) = a^2\text{Var}(X) + b^2\text{Var}(Y) + 2ab\text{Cov}(X,Y) $$ ## Ejemplo Sea $X,Y \sim \text{Exp}(1)$ y ambas son independientes. Encuentra $E[X^2,Y]$. Como $X,Y$ son independientes, $$ E[X^2,Y] = E[X^2]E[Y]\\ = (\text{Var}(X) + E(X)^2)E(Y)\\ =(1+1)(1)\\ =2 $$ ## Ejemplo Sean $$ X \sim \text U(0,1)\\ Z \sim \text U(0,0.1) $$ independientes. Sea $$ Y = X^2 + Z $$ Calcular $\text{Cov}(X,Y)$ $$ \text{Cov}(X,Y) = E(XY) - E(X)E(Y)\\ = E(X(X^2+2)) - E(X)E(X^2+2) \\ = E(X^3 + XZ) - E(X)[E(X^2) + E(Z)] \\ = E(X^3) + E(XZ) - E(X)E(X^2) - E(X)E(Z)\\ = E(X^3) - E(X)E(X^2) + \text{Cov}(X,Z) $$ Como $X,Z$ son independientes $$ = E(X^3) - E(X)E(X^2) $$ Entonces, $$ E(X^3) = \int_0^1 x^3 dx = \frac{1}{4} \\ E(X^2) = \int_0^1 x^2 dx = \frac{1}{3} \\ E(X) = \int_0^1 xdx = \frac{1}{2} $$ Entonces, $$ = \frac{1}{4} - \frac{1}{3} * \frac{1}{2}\\ = \frac{1}{4} - \frac{1}{6} \\ = \frac{2}{24}\\ = \frac{1}{12} $$ ## Teorema/Corolario Recordar + Si son independientes $\implies \text{Cov}(X,Y) = 0$ + Si $\text{Cov}(X,Y) \not = 0 \implies$ **No** son independientes ## DEF. - Valor experado condicional Sea $g(Y)$ una función de la v.a. $Y$. Sea $X$ otra v.a. Entonces, el valor esperado de $g(Y)$ condicionado a que $X=x$ está dado por: $$ E[g(Y) | X] = \sum_\mathbb y {g(y) P(Y=y | X=x)}\\ = \int_{\mathbb y} g(y)f(y|x) dy $$ ## Ejemplo Sea $f(y|x) = e^{-(y-x)} \mathbb I_{(0<x<y<\infty)}^{(x,y)}$. Encontrar $E[Y|X]$ $$ E[Y|X] = \int_x^\infty ye^{-(y-x)} dy\\ = e^x \int_x^\infty ye^{-y}dy\\ $$ Integrando por partes, con $$ \int udv = uv - \int vdu \\ u = y\\ dv = e^{-y}dy\\ du = dy\\ v = -e^{-y} $$ Entonces $$ = e^x[-ye^{-y} - \int_x^\infty -e^{-y}dy]\\ = e^x[-ye^{-y}\Big |_x^\infty -e^{-y}\Big |_x^\infty]\\ = e^x[xe^{-x} + e^{-x}]\\ = [x+1] $$ ## DEF. - Varianza condicional La varianza condicional de $Y$ dado $X$ es $$ \text{Var}(Y|X) = E[Y^2|X] - E[Y|X]^2 $$ ## Teorema Si $X,Y$ son independientes, $$ E[g(Y)|X] = E[g(Y)] $$ # 1.9 - Función Generadora de momentos y función característica Una de las herramientas más importantes en Probabilidade es la Función generadora de momentos (FGM), ya que: + Permite calcular momentos + Caracterizan a una distribución (Teorema de la Unicidad) ## DEF. - FGM univariada Sea $X$ una v.a., la función generadora de momentos de $X$ está dada por: $$ M_X(t) = E[e^{tX}] $$ definida para una vecindad de $t$ alrededor del cero. Además, $$ E[X^n] = \frac{d^nM_X(t)}{dt} \Big |_{t=0} $$ ### Ejemplo Sea $X \sim \text N(\mu,\sigma^2)$. Encuentra $M_X(t)$. $$ M_X(t) = E[e^{tX}]\\ = \int_{-\infty}^{\infty} e^{tx}\frac{1}{\sqrt{2\pi\sigma}}e^{\frac{-(x-\mu)^2}{2\sigma^2}}dx $$ Sea $$ y = x-\mu\\ dy=dx $$ Entonces, $$ .\\ .\\ .\\ = e^{t\mu+\frac{\sigma^2t}{2}} $$ ## DEF. - FGM univariada discreta Sea $X$ una v.a. discreta. Se define la función generadora de probabildiad como: $$ M_X(t) = \Phi_X(t) = \sum_{k=0}^{\infty}t^kP(X=k) $$ ## Proposición Sean $X,Y$, v.a.s independientes con f.g.m. $M_X(t)$ y $M_Y(t)$ respectivamente. Entonces, $$ Z = g(X,Y) = X+Y\\ \implies M_Z(t) = M_X(t)M_Y(t), \forall t $$ Si no fueran independientes, entonces, $$ M_Z(t) = \int_y \int_x e^{t(x+y)} f(x,y)dxdy $$ ### Corolario Sean $X_1,X_2,...,X_n$ v.a. independientes con $M_{X_i}(t)$ y sea $$ S_n = \sum_{i=1}^n X_i \\ \implies M_{S_n}(t) = \prod_{i=1}^n M_{X_i}(t) $$ Si, además, las $X_i$ son idénticamente distribuidas, $$ M_{S_n}(t) = (M_X(t))^n $$ ## DEF. - FGM Multivariada Sea $(X,Y)$ un vector aleatorio. Se define la fgm conjunta como $$ M_{XY}(t,s) = E[e^{tX+sY}] $$ siempre que $E[\cdot]$ esté definido para $|t| < \delta$ y $|s| < \epsilon$ con $\delta,\epsilon > 0$. ### Nota Si $X,Y$ son independientes, entonces: $$ M_{XY}(t,s) = M_X(t)M_Y(s) $$ ## Proposición Sea $(X,Y)$ un vector aleatorio con $M_{XY}(t,s)$. Entonces, $$ M_X(t) = \lim_{s \to 0} M_{XY}(t,s)\\ M_Y(t) = \lim_{t \to 0} M_{XY}(t,s) $$ ## Proposición Sea $(X,Y)$ un vector aleatorio con $M_{XY}(t,s)$ entonces: $$ E[X^nY^m] = \frac{\partial^{n+m}}{\partial t^n \partial s^m} M_{X,Y}(t,s) \Big |_{t=s=0} $$ ## Proposición Sean $X,Y$ v.a.s con $M_{XY}(t,s),M_{X}(t),M_{Y}(t)$. Entonces, $$ X,Y \text{ son independientes}\\ \iff\\ M_{XY}(t,s) = M_X(t)M_Y(s) $$ ## DEF. - Función característica Se define la función característica de una v.a. $X$ como $$ \phi_X(t) = E[e^{itX}] \\ = \int_\mathbb x e^{itx} f_X(x)dx $$ donde $i = \sqrt{-1}$. ### Nota Si f.g.m. $M_X(t)$ existe: $$ \phi_X(t) = M_X(it) $$ ## Proposición Sea $X$ una v.a. con función de densidad $f_X(x)$, entonces $\phi_X(t)$ **siempre** existe. ## Nota Si $X$ es una v.a. con $\phi_X(t)$, entonces, $$ E[X^n] = \frac{\frac{d^n \phi_X(t)}{dt^n} \Big |_{t=0}}{i^n} $$ # 1.10 - Distribuciones Mezcla En algunas ocasiones, el parámetro en una distribución no es un valor constante, sino que cambia bajo ciertas condiciones (aleatorio). ## Ejemplo Un insector deposita cierta cantidad de huevecillo, cada uno con probabilidad $p$ de sobrevivencia. El número de huevecillos se distribuye $\text{Poisson}(\lambda)$. $$ N = \text{número de huevecillos}\\ N = \text{Po}(\lambda)\\ X = \text{Número de huevecillos sobrevivientes}\\ X \sim \text{Bin}(N,p)\\ X|N \sim \text{Bin}(N,p) $$ ¿Cuál es la distribución de $X$? $$ P(X=x) = \sum_\mathbb n P(X=x,N=n)\\ = \sum_\mathbb n P(X=x|N=n)P(N=n)\\ = \sum_\mathbb n \binom{N}{x}p^x(1-p)^{N-x} \frac{e^{-\lambda}\lambda^N}{N!}\\ = \sum_\mathbb n \frac{n!}{(n-x)!x!n!} p^x(1-p)^{n-x}e^{-\lambda}\lambda^n\\ = \frac{p^xe^{-\lambda}}{x!}\sum_\mathbb n \frac{(1-p)^{n-x}\lambda^n}{(n-x)!}\\ = \frac{p^x\lambda^x e^{-\lambda}}{x!}\sum_\mathbb n \frac{(1-p)^{n-x}}{(n-x)!}\\ = \frac{(p\lambda)^x e^{-\lambda}}{x!} \sum_{n=x}^{\infty}\frac{[(1-p)\lambda]^{n-x}}{(n-x)!}\\ $$ Sea $$ t=n-x\\ n=x \implies t=0\\ n=\infty \implies t=\infty $$ Entonces, $$ = \frac{(p\lambda)^x e^{-\lambda}}{x!} \sum_{t=0}^{\infty}\frac{((1-p)\lambda)^t}{t!}\\ = \frac{(p\lambda)^xe^{-\lambda}}{x!} e^{(1-p)\lambda}\\ = \frac{(\lambda p)^xe^{-\lambda p}}{x!} \\ \therefore X \sim \text{Po}(\lambda p)\\ \therefore E[X] = \lambda p $$ ## Teorema Sean $X,Y$ v.a.s. Entonces, $$ E[X] = E[E(X|Y)] $$ ## Ejemplo $$ X|N \sim \text{Bin}(N,p)\\ N|\Lambda \sim \text{Po}(\Lambda)\\ \Lambda \sim \text{Exp}(\beta) $$ Entonces $$ E[X] = E[E(X|N)]\\ = E(Np) = p E(N) \\ = pE(E(N|\Lambda))\\ = pE(\Lambda) \\ = p\beta $$ ## Teorema Sean $X$ y $Y$ dos v.a.s. Entonces, $$ \text{Var(X)} = \text{Var}_Y(E_X(X|Y)) + E_Y(\text{Var}_X(X|Y)) $$ ## Ejemplo Sea $$ X|P \sim \text{Bin}(n,P)\\ P \sim \text{U}(0,1) $$ Entonces $$ \text{Var}(X)\\ = \text{Var}(E(X|P)) + E(\text{Var}(X|P))\\ = \text{Var}(nP) + E(nP(1-P))\\ = n^2 \frac{1}{12} + nE(P-P^2)\\ = \frac{n^2}{12} + n[\frac{1}{2} - (\frac{1}{2} + \frac{1}{4})]\\ = \frac{n^2}{16} + \frac{n}{6} $$ ## DEF. - Funcion de masa conjunta ### Notación $$ \underline X = (X_1,X_2,...,X_n)\\ \underline X(w): \Omega \to \mathbb R^n $$ Si $\underline X$ es un vector aleatorio discreto, entonces defino a la función de masa conjunta como $$ P(X=x_1,X_2=x_2,...,X_n=x_n) $$ y entonces, para $A \subseteq \mathbb R^n$, $$ P(\underline X \in A) = \sum_{\underline X \in A} P(X_1 = x1, ..., X_n = x_n) $$ Si $\underline X$ es un vector aleatorio continuo, defino a la función de densidad conjunta como: $$ f(x_1,x_2,...,x_n) $$ que satisface: Para $A \subseteq \mathbb R^n$ $$ P(X \in A) = {\int ... \int}_A f(x_1,...,x_n)dx_1,...,dxn $$ Sea $g(x_1,..,x_n), [g(\cdot): \mathbb R^n \to \mathbb R]$ función $\underline X$, se sabe que $g(\underline X)$ es una v.a. Entonces, $$ E[g(X_1,...,X_n)] = \int_{-\infty}^{\infty} ... \int_{-\infty}^{\infty} g(x_,...,x_n)f(x_1,...,x_n)dx_1...dx_n $$ La esperanza y la varianza siguen la misma lógica que el [Caso bivariado en la sección 1.7](/DcHDxrE7S5OCUF9Zm5ZO9A) ## DEF. - Función de densidad marginal multivariada La FDM de $X_i$ del vector aleatorio (X_1,X_2,...,X_n) es: $$ f_{x_i}(x) = {\int_{-\infty}^{\infty}}_0...{\int_{-\infty}^{\infty}}_{n-1} f(x_1,...,x_n)dx_1,...,dx_n $$ Y, para cualquier subconjunto de variables (X_1,...,X_k,...,X_n) la función de densidad es: $$ f(x_1,...,x_n) \int_{n-k \text{ veces}} ... \int f(x_1,...,x_k,...,x_n)dx_{k+1}...dx_n $$ La función de densidad condicional de un vector aleatorio $(X_1,...,X_n)$ es: $$ f(x_{k+1},...,x_n|x_1,...,x_k) = \frac{f(x_1,...,x_n)}{f(x_1,...,x_n)} $$ ## Vectores con v.a. independientes Si las variables del vector $X$ son independientes, entonces $$ f(x_1,...,x_n) = f_{x_1}(x_1)...f_{x_n}(x_n) $$ Sean $X_1,X_2,...,X_n$ vectores aleatorios $f(X_1,X_2,...,X_n)$ se dice que los vectores aleatorios son independientes si: $$ f(x_1,...,x_n) = f_{X_1}(x_1)...f_{X_n}f(X_n) = f_{x_{11}}(x_{11})f_{x_{11}}(x_{12})...f_{x_nn}(x_{nn}) $$ # 1.12 - Distribución Multinomial Sean $n,m$ enteros positivos y sean $$ P_1,P_2,...,P_n\\ 0\leq P_i \leq 1\\ \sum_{i=1}^{n} P_i = 1 $$ Entonces, el vector aleatorio $(X_1,...,X_n)$ tiene distribución multinomial si $$ P(X_1=x_1,X_2=x_2,...,X_n = x_n) = \binom{m}{x_1,x_2,...,x_n}P_1^{x_1}P_2^{x_2}...P_n^{x_n} $$ Decimos así que: $$ X \sim \text{Mult}(m,P_1,P_2,...,P_n) $$ Se interpreta como la probabilidad de $m$ éxitos posibles en $n$ ensayos. ## Nota $$ \binom{m}{x_1,x_2,...,x_n} = \frac{m!}{x_1!x_2!...x_n!} $$ ## Ejemplo Se lanza un dado 10 veces. El dado no es justo, tal que $$ P(\text{cara i}) = \frac{i}{21} $$ Queremos calcular la probabilidad de que, al lanzar el dado $10$ veces, obtengamos: + 1 cara 3 + 2 caras 4 + 3 caras 5 + 4 caras 6 Tenemos así $$ m = 10\\ x_1 = 0, x_2 =0, x_3 = 1, x_4 = 2, x_5 = 3, x_6 = 4\\ P_1 = 1/21, P_2, = 2/21, P3=3/21, P_4=4/21, P_5 = 5/21, P_6 = 6/21 $$ Entonces $$ \binom{10}{0,0,1,2,3,4}(1/21)^0(2/21)^0(3/21)^1(4/21)^2(5/21)^3(6/21)^4\\ = 0.0059 $$