---
title: "Unidad I - Distribución de Vectores Aleatorios"
---
# 1.1 - Vectores aleatorios
Recordando que una v.a. es:
$$
X(\omega): \Omega \to \mathbb R
$$
## DEF. - Vector Aleatorio
Un vector aleatorio se define tal que
$$
\underline{X}(\omega): \Omega \to \mathbb{R}^n
$$
También se pueden denotar como
$$
(X,Y)\\
(X_1,X_2)
$$
## Ejemplo
Se realiza un experimento en el cuál se lanzan 2 dados.
Teniendo así:
$$
\Omega =
\begin{Bmatrix}
(1,1), (1,2),...,(1,6)\\
(2,1), (2,2),...,(2,6)\\
.\\
.\\
.\\
(6,1), (6,2), ..., (6,6)
\end{Bmatrix}
$$
y definimos **dos** variables aleatorias:
$$
X: \text{suma de las caras de los dados}\\
Y: \text{diferencia en valor absoluto de las caras de los datos}
$$
Por lo tanto, con
$$
\omega(4,1) \to (X,Y) = (5,3)
$$
En cuanto a los soportes,
$$
X \in \{2,3,...,12\}\\
Y \in \{0,1,...,5\}
$$
# 1.2 - Función de masa y de densidad conjunta
## DEF. - Función de masa de probabilidad conjunta
Sea $(X,Y)$ un vector aleatorio bivariado, entonces la función de masa de probabilidad conjunta, denotada como $f(x,y)$, se define como:
$$
f(x,y) = P(X=x,Y=y)
$$
Así, $f(x,y)$ define de manera completa el comportamiento **conjunto** de las v.a. $X$ y $Y$.
## Propiedades
Se dice que $f(x,y) = P(X=x,Y=y)$ es función de masa de probabilidad conjunta si:
+ $f(x,y) \geq 0, \forall (x,y) \in \mathbb R^2$
+ $\sum_{(x,y)} f(x,y) = 1$
## Ejemplo
Se lanzan 3 monedas justas y definimos:
+ $X:=$ # de soles en los primeros dos lanzamientos
+ $Y:=$ # de águilas en los últimos dos lanzamientos
Entonces definimos $P(X=x, Y=y)$
$$
X \in \{0,1,2\}\\
Y \in \{0,1,2\}
$$
Entonces, el espacio muestral se define como:
$$
\Omega =
\begin{Bmatrix}
(A,A,A),(A,A,S),(A,S,A),(S,A,A)\\
(A,S,S),(S,A,S),(S,S,A),(S,S,S)
\end{Bmatrix}
$$
Entonces, podemos definir
$$
f(x,y) =
$$
| | 0 | $1$ | 2 |
| --- | ---- | ---- | --- |
| 0 | 0 | $\frac{1}{8}$ | |
| 1 | | | |
|2 | | | 0 |
## DEF. - Probabilidad sobre un subconjunto
Sea $A$ cualquier subconjunto de $\mathbb R^2$ tal que $A \subseteq \mathbb R^2$ entonces:
$$
P [(X,Y) \in A] = \sum_{(x,y) \in A} f(x,y)
$$
## DEF. - Función de densidad conjunta
Una función $f(x,y): \mathbb R^2 \to \mathbb R$ se denomina función de densidad conjunta si, para cada $A \subseteq \mathbb R^2$:
$$
P[(X,Y) \in A] = \int \int_A f(x,y)dxdy
$$
## Propiedades
Se dice que $f(x,y)$ es función de densidad conjunta si:
+ $f(x,y) \geq 0, \forall (x,y) \in \mathbb R^2$
+ $\int \int_{\mathbb R^2} f(x,y) dxdy = 1$
## Ejemplo
Sea $f(x,y) = 6xy^2 \mathbb I_{(0<x,y<1)}^{(x,y)}$ verifiquemos que es función de densidad conjunta.
Tenemos
$$
\int_0^1 \int_0^1 6xy^2 dx dy \\
= \int_0^1 \frac{6x^2y^2}{2} \Big|_{x=0}^{x=1} dy \\
= \int_0^1 3y^2\\
= y^3 \Big|_{y=0}^{y=1} \\
= 1
$$
# 1.3 Función de distribución conjunta
Partimos de la definición general de probabilidad sobre un subconjunto $A$:
$$
P[(X,Y) \in A] = \int \int_A f(x,y)dxdy
$$
Para la función de distribución $A$ es un subconjunto particular tal que:
$$
(X\leq x, Y \leq y)
$$
Por lo tanto,
$$
P[(X,Y) \in A] \\
= P[X \leq x, Y \leq y] \\
= \int_{-\infty}^y \int_{-\infty}^{x} f(x,y)dxdy \\
= F(x,y)
$$
## Propiedades
+ No decreciente
+ Diferenciable
+ $\lim_{x \to \infty}F(x,y) = F_Y(y)$
+ $\lim_{y \to \infty}F(x,y) = F_X(x)$
+ $\lim_{(x,y) \to (\infty,\infty)}F(x,y) = 1$
+ $\lim_{(x,y) \to (-\infty,-\infty)}F(x,y) = 0$
## DEMOSTRAR POR 1 DÉCIMA EXTRA
Recordemos,
$$
P(a \leq X \leq b) = F(b) - F(a)
$$
Sea
$$
R = \{(x,y) : a \leq x \leq b, c \leq y \leq d \}\\
$$
Entonces
$$
P[(X,Y) \in R] = F(b,d) - F(a,d) - F(b,c) + F(a,c)
$$
## Función de distribución conjunta (cont.)
Por lo mencionado, recordamos que
### Caso contínuo
$$
F(x,y) = \int_{-\infty}^y \int_{-\infty}^x f(u,v)dudv
$$
### Caso discreto
$$
\sum_{v \to -\infty}^y \sum_{u \to -\infty}^x f(u,v)
$$
## Ejemplo
Sea
$$
f(x,y) = e^{-y} \mathbb I_{[0<x<y<\infty]}^{(x,y)}
$$
Calcular
$$
P(X + Y \leq 1)
$$
Tenemos que
$$
A = \{(x,y) : x + y \leq 1\}
$$
Entonces
$$
P(X+Y \leq 1) = \int_A \int e^{-y} dxdy
$$
Resolvemos la integral
$$
\int_0^{\frac{1}{2}} \int_x^{1-x} e^{-y} dydx \\
= \int_0^{0.5} (-e^{-y} \Big|_{y=x}^{y=1-x})dx
.\\
.\\
.\\
= 1+ e^{-1} - 2e^{-0.5}
$$
# 1.4 - Distribuciones Marginales
## TEO
Sea $(X,Y)$ un vector aleatorio discreto con función de masa de probabilidad conjunta (FMPC), entonces las funciones de masa de probabilidad marginales de $X$ y $Y$ estan dadas por:
$$
f_X(x) = \sum_{y \in \mathbb y} f(x,y) \\
f_Y(x) = \sum_{x \in \mathbb x} f(x,y)
$$
Donde $\mathbb x$ y $\mathbb y$ son el soporte de $X$ y de $Y$ respectivamente.
# 1.5 - Distribuciones condicionales
## NOTA
$$
f(y|x) = \frac{f(x,y)}{f_X(x)} \\
f(x | y) = \frac{f(x,y)}{f_Y(y)}
$$
Entonces,
$$
\frac{f_X(x)}{f_Y(y)} = \frac{f(x|y)}{f(y|x)}
$$
## Regla de Bayes
$$
f(x|y) = \frac{f(x,y)}{f_Y(y)}
$$
Por otro lado,
$$
f_Y(y) = \int_{-\infty}^{\infty} f(x,y)dx
$$
Entonces,
$$
f(x|y) = \frac{f(x,y)}{\int_{-\infty}^{\infty}f(x,y)dx}
$$
Entonces,
$$
f(x|y) = \frac{f(y|x) f(x)}{\int_{-\infty}^{\infty} f(y|x)f_X(x)dx}
$$
Lo cual nos regresa al **Teorema de Bayes**
$$
P(X=x | Y= y) = \frac{P(Y=y|X=x)P(X=x)}{\sum_X P(Y=y | X=x) P(X=x)}
$$
## Ejemplo
Suponga que el número de accidentes automovilísticos en el que un conductor pueda estar involucrado durante un año es una v.a. $Y$ que se distribuye $Y \sim \text{Po}(\lambda)$, donde la $\lambda$ depende del conductor.
Como $\lambda$ no es constante, se escribirá como $\Lambda$, y es variable aleatoria. Además,
$$
\Lambda \sim \Gamma(\alpha, \beta)
$$
Entonces, defino
$$
Y|\Lambda:= \text{El número de accidentes dato el tipo de conductor}
$$
Calcular
+ $f_Y(y)$
+ $f(\lambda|y)$
---
Tenemos
$$
f_Y(y) = \int_{-\infty}^{\infty}f(y|\lambda)f_{\Lambda}(\lambda)d\lambda \\
= \int_{0}^{\infty} \frac{e^{-\lambda}\lambda^{y}}{y!}\frac{\beta^\alpha}{\Gamma(\alpha)}\lambda^{\alpha-1}e^{-\alpha\beta}d\lambda \\
= \frac{\beta^\alpha}{\Gamma(\alpha)y!} \int_0^{\infty} \lambda^y \lambda^{\alpha-1} e^{-\lambda} e^{-\lambda\beta} d\lambda\\
= \frac{\beta^\alpha}{\Gamma(\alpha)y!} \int_0^{\infty} \lambda^{y+\alpha-1} e^{-\lambda(1+\beta)} d\lambda\\
= \frac{\beta^\alpha}{\Gamma(\alpha)y!} \Gamma(y+\alpha,1+\beta)
$$
### Nota
A lo que está dentro de la integral lo podemos llamar **kernel** o **núcleo** de la distribución ya que, amén de las constantes, se puede convertir en otra distribución.
Por otro lado, tenemos
$$
f(\lambda|y) = \frac{f(y|\lambda)f(\lambda)}{f_Y(y)}\\
= \frac{\frac{\beta^\alpha}{\Gamma(\alpha)y!} \lambda^{\alpha+y+1}e^{-\lambda(1+\beta)}}{\frac{\beta^\alpha}{\Gamma(\alpha)y!}}
$$
Al final tenemos que
$$
Y | \Lambda \sim \text{Po}(\Lambda)\\
\Lambda \sim \Gamma(\alpha,\beta)\\
Y \sim \frac{\beta^{\alpha}}{(\beta+1)^{\alpha+y}y!} \frac{\Gamma(\alpha+y)}{\Gamma(\alpha)}\\
\Lambda | Y \sim \Gamma(\alpha+y,\beta+1)
$$
# 1.6 - Variables Aleatorias Independientes
## DEF - Vectores Aleatorios Independientes
Sea $(X,Y)$ un vector aleatorio con función de densidad conjunta $f(x,y)$ y funciones marginales $f_X(x),f_Y(y)$. Entonces, $X$ y $Y$ son v.a. independientes si $\forall x \in X, \forall y \in Y$,
$$
f(x,y) = f_X(x)f_Y(y)
$$
### Corolario
Si $X$ y $Y$ son v.a. independientes, entonces
$$
f(y|x) = f_Y(y) \\
f(x|y) = f_X(x)
$$
## Observación
Sea $(X,Y)$ un vector aleatorio con función de densidad conjunta $f(x,y)$. Entonces, $X,Y$ son v.a. independientes si y solo si existen dos funciones $g(x)$ y $h(y)$ tal que $\forall x \in X$ y $\forall y \in Y$,
$$
f(x,y) = g(x)h(y)
$$
# 1.7 - Momentos de un vector aleatorio
Recordando:
Sea $g(x)$ una función de una v.a. $X$, se define
$$
E[g(x)] = \int_Xg(x)f(x)dx
$$
## DEF
Sea $g(X,Y)$ una función de $(X,Y)$ tal que $g(.): \mathbb R \to \mathbb R^2$. Entonces, $g(X,Y)$ es, en si misma, una variable aleatoria y su valor esperado está dado por:
### Caso Discreto
$$
E[g(X,Y)] = \sum_{(x,y) \in \mathbb R^2} g(x,y)P(X=x,Y=y)
$$
#### Ejemplo - Ejemplo de los dados
Definimos
$$
g(X,Y) = XY
$$
Entonces
$$
E[g(X,Y)] = E[XY] = \sum_{(x,y) \in \mathbb R^2} xy P(X=x,Y=y)
$$
### Caso Contínuo
$$
E[g(X,Y)] = \int_\mathbb y \int_\mathbb x g(x,y)f(x,y)dxdy
$$
#### Ejemplo
Sea $f(x,y) = 6xy^2 \mathbb I_{(0<x<1,0<y<1)}^{(x,y)}$.
Encontrar $E[XY]$.
$$
E[XY] = \int_0^1 \int_0^1 xy6xy^2 dxdy\\
= \int_0^1 \int_0^1 6x^6y^3dxdy\\
=\int_0^1 2x^3y^3 \Big |_{x=0}^{x=1} dy\\
= \int_0^1 2y^3 dy \\
= \frac{1}{2} y^4 \Big|_{y=0}^{y=1}\\
= \frac{1}{2}
$$
## Propiedades
El operador $E$ tiene las mismas propiedades lineales que en el caso univariado:
1. El valor esperado de una suma es la suma de los valores esperados.
2. El valor esperado de una función por una constante es la constante por el valor esperado de la función.
3. El valor esperado de una constante es la constante.
## DEF - Valor esperado de un vector
El valor esperado de un vector es el vector de los valores esperados
$$
E\begin{bmatrix}
\begin{pmatrix}
g_1(X,Y)\\
g_2(X,Y)
\end{pmatrix}
\end{bmatrix}=
\begin{pmatrix}
E[g_1(X,Y)]\\
E[g_2(X,Y)]
\end{pmatrix}
$$
También se le conoce como vector de medias, donde
$$
E(X) = \int_X xf_X(x)dx < \infty \\
E(Y) = \int_Y yf_Y(y)dy < \infty
$$
## Varianza
Sea $\underline W = \binom{X}{Y}$.
Entonces
$$
\text{Var}(\underline W) = E[(\underline W - E(\underline W))^2] \\
= E[(\underline W - E(\underline W))(W - E(\underline W))^T]
$$
El valor esperado de una matriz es la matrzi de los valores esperados.
$$
\begin{bmatrix}
\text{Var}(X), \text{Cov}(X,Y)\\
\text{Cov}(X,Y), \text{Var}(Y)
\end{bmatrix}
$$
## DEF - Covarianza
Sea $(X,Y)$ un vector aleatorio, se define la coviarianza de $(X,Y)$ como
$$
\text{Cov}(X,Y) = E[(X - E(X))(Y - E(Y))]
$$
## TEOREMA - DEMOSTRAR POR DÉCIMA
Para cualesquiera v.a. $X,Y$ con $E(X) < \infty$, $E(Y) < \infty$, enotnces
$$
\text{Cov}(X,Y) = E(XY) - E(X)E(Y)
$$
### Demostración
$$
\text{Cov}(X,Y) = E[(X-E(X))(Y-E(Y))]
$$
## Propiedades - Covarianza
+ Si $\text{Cov}(X,Y)>0$, entonces la relación de $X$ y $Y$ es positiva.
+ Si $\text{Cov}(X,Y)<0$, entonces la relación de $X$ y $Y$ es negativa
+ Si no hay relación entre $X$ y $Y$ (son independientes), entonces $\text{Cov}(X,Y)=0$
## DEF - Coeficiente de correlación
El coeficiente de correlación de dos v.a.s $(X,Y)$ está dado por:
$$
\rho_{XY} = \frac{\text{Cov}(X,Y)}{\sqrt{\text{Var}(X)\text{Var}(Y)}}
$$
## Teorema
Para cualesquiera variables aleatorias $(X,Y)$:
1. $-1 \leq \rho_{XY} \leq 1$
2. $\rho_{XY} = 1 \iff \exists a \not = 0, b \in \mathbb R$ tal que $P(Y=aX+b)=1 \forall x,y$
## Teorema
Se dice que si $X$ y $Y$ son v.a independientes, entonces
$$
\text{Cov}(X,Y) = 0 \\
\rho_{XY} = 0
$$
## Teorema
Sean $X,Y$ v.a.s independientes y sean $g(X)$ y $h(Y)$ dos funciones, la primera función de $X$ y la segunda función de $Y$.
Entonces,
$$
E[g(X)h(Y)] = E[g(X)]E[h(Y)]
$$
## Teorema
Sean $X$ y $Y$ dos variables aleatorias y $a,b,c \in \mathbb R$. Entonces,
$$
\text{Var}(aX+BY+c) = a^2\text{Var}(X) + b^2\text{Var}(Y) + 2ab\text{Cov}(X,Y)
$$
## Ejemplo
Sea $X,Y \sim \text{Exp}(1)$ y ambas son independientes. Encuentra $E[X^2,Y]$.
Como $X,Y$ son independientes,
$$
E[X^2,Y] = E[X^2]E[Y]\\
= (\text{Var}(X) + E(X)^2)E(Y)\\
=(1+1)(1)\\
=2
$$
## Ejemplo
Sean
$$
X \sim \text U(0,1)\\
Z \sim \text U(0,0.1)
$$
independientes.
Sea
$$
Y = X^2 + Z
$$
Calcular $\text{Cov}(X,Y)$
$$
\text{Cov}(X,Y) = E(XY) - E(X)E(Y)\\
= E(X(X^2+2)) - E(X)E(X^2+2) \\
= E(X^3 + XZ) - E(X)[E(X^2) + E(Z)] \\
= E(X^3) + E(XZ) - E(X)E(X^2) - E(X)E(Z)\\
= E(X^3) - E(X)E(X^2) + \text{Cov}(X,Z)
$$
Como $X,Z$ son independientes
$$
= E(X^3) - E(X)E(X^2)
$$
Entonces,
$$
E(X^3) = \int_0^1 x^3 dx = \frac{1}{4} \\
E(X^2) = \int_0^1 x^2 dx = \frac{1}{3} \\
E(X) = \int_0^1 xdx = \frac{1}{2}
$$
Entonces,
$$
= \frac{1}{4} - \frac{1}{3} * \frac{1}{2}\\
= \frac{1}{4} - \frac{1}{6} \\
= \frac{2}{24}\\
= \frac{1}{12}
$$
## Teorema/Corolario
Recordar
+ Si son independientes $\implies \text{Cov}(X,Y) = 0$
+ Si $\text{Cov}(X,Y) \not = 0 \implies$ **No** son independientes
## DEF. - Valor experado condicional
Sea $g(Y)$ una función de la v.a. $Y$. Sea $X$ otra v.a. Entonces, el valor esperado de $g(Y)$ condicionado a que $X=x$ está dado por:
$$
E[g(Y) | X] = \sum_\mathbb y {g(y) P(Y=y | X=x)}\\
= \int_{\mathbb y} g(y)f(y|x) dy
$$
## Ejemplo
Sea $f(y|x) = e^{-(y-x)} \mathbb I_{(0<x<y<\infty)}^{(x,y)}$.
Encontrar $E[Y|X]$
$$
E[Y|X] = \int_x^\infty ye^{-(y-x)} dy\\
= e^x \int_x^\infty ye^{-y}dy\\
$$
Integrando por partes, con
$$
\int udv = uv - \int vdu \\
u = y\\
dv = e^{-y}dy\\
du = dy\\
v = -e^{-y}
$$
Entonces
$$
= e^x[-ye^{-y} - \int_x^\infty -e^{-y}dy]\\
= e^x[-ye^{-y}\Big |_x^\infty -e^{-y}\Big |_x^\infty]\\
= e^x[xe^{-x} + e^{-x}]\\
= [x+1]
$$
## DEF. - Varianza condicional
La varianza condicional de $Y$ dado $X$ es
$$
\text{Var}(Y|X) = E[Y^2|X] - E[Y|X]^2
$$
## Teorema
Si $X,Y$ son independientes,
$$
E[g(Y)|X] = E[g(Y)]
$$
# 1.9 - Función Generadora de momentos y función característica
Una de las herramientas más importantes en Probabilidade es la Función generadora de momentos (FGM), ya que:
+ Permite calcular momentos
+ Caracterizan a una distribución (Teorema de la Unicidad)
## DEF. - FGM univariada
Sea $X$ una v.a., la función generadora de momentos de $X$ está dada por:
$$
M_X(t) = E[e^{tX}]
$$
definida para una vecindad de $t$ alrededor del cero.
Además,
$$
E[X^n] = \frac{d^nM_X(t)}{dt} \Big |_{t=0}
$$
### Ejemplo
Sea $X \sim \text N(\mu,\sigma^2)$. Encuentra $M_X(t)$.
$$
M_X(t) = E[e^{tX}]\\
= \int_{-\infty}^{\infty} e^{tx}\frac{1}{\sqrt{2\pi\sigma}}e^{\frac{-(x-\mu)^2}{2\sigma^2}}dx
$$
Sea
$$
y = x-\mu\\
dy=dx
$$
Entonces,
$$
.\\
.\\
.\\
= e^{t\mu+\frac{\sigma^2t}{2}}
$$
## DEF. - FGM univariada discreta
Sea $X$ una v.a. discreta. Se define la función generadora de probabildiad como:
$$
M_X(t) = \Phi_X(t) = \sum_{k=0}^{\infty}t^kP(X=k)
$$
## Proposición
Sean $X,Y$, v.a.s independientes con f.g.m. $M_X(t)$ y $M_Y(t)$ respectivamente. Entonces,
$$
Z = g(X,Y) = X+Y\\
\implies M_Z(t) = M_X(t)M_Y(t), \forall t
$$
Si no fueran independientes, entonces,
$$
M_Z(t) = \int_y \int_x e^{t(x+y)} f(x,y)dxdy
$$
### Corolario
Sean $X_1,X_2,...,X_n$ v.a. independientes con $M_{X_i}(t)$ y sea
$$
S_n = \sum_{i=1}^n X_i \\
\implies M_{S_n}(t) = \prod_{i=1}^n M_{X_i}(t)
$$
Si, además, las $X_i$ son idénticamente distribuidas,
$$
M_{S_n}(t) = (M_X(t))^n
$$
## DEF. - FGM Multivariada
Sea $(X,Y)$ un vector aleatorio. Se define la fgm conjunta como
$$
M_{XY}(t,s) = E[e^{tX+sY}]
$$
siempre que $E[\cdot]$ esté definido para $|t| < \delta$ y $|s| < \epsilon$ con $\delta,\epsilon > 0$.
### Nota
Si $X,Y$ son independientes, entonces:
$$
M_{XY}(t,s) = M_X(t)M_Y(s)
$$
## Proposición
Sea $(X,Y)$ un vector aleatorio con $M_{XY}(t,s)$. Entonces,
$$
M_X(t) = \lim_{s \to 0} M_{XY}(t,s)\\
M_Y(t) = \lim_{t \to 0} M_{XY}(t,s)
$$
## Proposición
Sea $(X,Y)$ un vector aleatorio con $M_{XY}(t,s)$ entonces:
$$
E[X^nY^m] = \frac{\partial^{n+m}}{\partial t^n \partial s^m} M_{X,Y}(t,s) \Big |_{t=s=0}
$$
## Proposición
Sean $X,Y$ v.a.s con $M_{XY}(t,s),M_{X}(t),M_{Y}(t)$. Entonces,
$$
X,Y \text{ son independientes}\\
\iff\\
M_{XY}(t,s) = M_X(t)M_Y(s)
$$
## DEF. - Función característica
Se define la función característica de una v.a. $X$ como
$$
\phi_X(t) = E[e^{itX}] \\
= \int_\mathbb x e^{itx} f_X(x)dx
$$
donde $i = \sqrt{-1}$.
### Nota
Si f.g.m. $M_X(t)$ existe:
$$
\phi_X(t) = M_X(it)
$$
## Proposición
Sea $X$ una v.a. con función de densidad $f_X(x)$, entonces $\phi_X(t)$ **siempre** existe.
## Nota
Si $X$ es una v.a. con $\phi_X(t)$, entonces,
$$
E[X^n] = \frac{\frac{d^n \phi_X(t)}{dt^n} \Big |_{t=0}}{i^n}
$$
# 1.10 - Distribuciones Mezcla
En algunas ocasiones, el parámetro en una distribución no es un valor constante, sino que cambia bajo ciertas condiciones (aleatorio).
## Ejemplo
Un insector deposita cierta cantidad de huevecillo, cada uno con probabilidad $p$ de sobrevivencia. El número de huevecillos se distribuye $\text{Poisson}(\lambda)$.
$$
N = \text{número de huevecillos}\\
N = \text{Po}(\lambda)\\
X = \text{Número de huevecillos sobrevivientes}\\
X \sim \text{Bin}(N,p)\\
X|N \sim \text{Bin}(N,p)
$$
¿Cuál es la distribución de $X$?
$$
P(X=x) = \sum_\mathbb n P(X=x,N=n)\\
= \sum_\mathbb n P(X=x|N=n)P(N=n)\\
= \sum_\mathbb n \binom{N}{x}p^x(1-p)^{N-x} \frac{e^{-\lambda}\lambda^N}{N!}\\
= \sum_\mathbb n \frac{n!}{(n-x)!x!n!} p^x(1-p)^{n-x}e^{-\lambda}\lambda^n\\
= \frac{p^xe^{-\lambda}}{x!}\sum_\mathbb n \frac{(1-p)^{n-x}\lambda^n}{(n-x)!}\\
= \frac{p^x\lambda^x e^{-\lambda}}{x!}\sum_\mathbb n \frac{(1-p)^{n-x}}{(n-x)!}\\
= \frac{(p\lambda)^x e^{-\lambda}}{x!} \sum_{n=x}^{\infty}\frac{[(1-p)\lambda]^{n-x}}{(n-x)!}\\
$$
Sea
$$
t=n-x\\
n=x \implies t=0\\
n=\infty \implies t=\infty
$$
Entonces,
$$
= \frac{(p\lambda)^x e^{-\lambda}}{x!} \sum_{t=0}^{\infty}\frac{((1-p)\lambda)^t}{t!}\\
= \frac{(p\lambda)^xe^{-\lambda}}{x!} e^{(1-p)\lambda}\\
= \frac{(\lambda p)^xe^{-\lambda p}}{x!} \\
\therefore X \sim \text{Po}(\lambda p)\\
\therefore E[X] = \lambda p
$$
## Teorema
Sean $X,Y$ v.a.s. Entonces,
$$
E[X] = E[E(X|Y)]
$$
## Ejemplo
$$
X|N \sim \text{Bin}(N,p)\\
N|\Lambda \sim \text{Po}(\Lambda)\\
\Lambda \sim \text{Exp}(\beta)
$$
Entonces
$$
E[X] = E[E(X|N)]\\
= E(Np) = p E(N) \\
= pE(E(N|\Lambda))\\
= pE(\Lambda) \\
= p\beta
$$
## Teorema
Sean $X$ y $Y$ dos v.a.s. Entonces,
$$
\text{Var(X)} = \text{Var}_Y(E_X(X|Y)) + E_Y(\text{Var}_X(X|Y))
$$
## Ejemplo
Sea
$$
X|P \sim \text{Bin}(n,P)\\
P \sim \text{U}(0,1)
$$
Entonces
$$
\text{Var}(X)\\
= \text{Var}(E(X|P)) + E(\text{Var}(X|P))\\
= \text{Var}(nP) + E(nP(1-P))\\
= n^2 \frac{1}{12} + nE(P-P^2)\\
= \frac{n^2}{12} + n[\frac{1}{2} - (\frac{1}{2} + \frac{1}{4})]\\
= \frac{n^2}{16} + \frac{n}{6}
$$
## DEF. - Funcion de masa conjunta
### Notación
$$
\underline X = (X_1,X_2,...,X_n)\\
\underline X(w): \Omega \to \mathbb R^n
$$
Si $\underline X$ es un vector aleatorio discreto, entonces defino a la función de masa conjunta como
$$
P(X=x_1,X_2=x_2,...,X_n=x_n)
$$
y entonces, para $A \subseteq \mathbb R^n$,
$$
P(\underline X \in A) = \sum_{\underline X \in A} P(X_1 = x1, ..., X_n = x_n)
$$
Si $\underline X$ es un vector aleatorio continuo, defino a la función de densidad conjunta como:
$$
f(x_1,x_2,...,x_n)
$$
que satisface:
Para $A \subseteq \mathbb R^n$
$$
P(X \in A) = {\int ... \int}_A f(x_1,...,x_n)dx_1,...,dxn
$$
Sea $g(x_1,..,x_n), [g(\cdot): \mathbb R^n \to \mathbb R]$ función $\underline X$, se sabe que $g(\underline X)$ es una v.a. Entonces,
$$
E[g(X_1,...,X_n)] = \int_{-\infty}^{\infty} ... \int_{-\infty}^{\infty} g(x_,...,x_n)f(x_1,...,x_n)dx_1...dx_n
$$
La esperanza y la varianza siguen la misma lógica que el [Caso bivariado en la sección 1.7](/DcHDxrE7S5OCUF9Zm5ZO9A)
## DEF. - Función de densidad marginal multivariada
La FDM de $X_i$ del vector aleatorio (X_1,X_2,...,X_n) es:
$$
f_{x_i}(x) = {\int_{-\infty}^{\infty}}_0...{\int_{-\infty}^{\infty}}_{n-1} f(x_1,...,x_n)dx_1,...,dx_n
$$
Y, para cualquier subconjunto de variables (X_1,...,X_k,...,X_n) la función de densidad es:
$$
f(x_1,...,x_n) \int_{n-k \text{ veces}} ... \int f(x_1,...,x_k,...,x_n)dx_{k+1}...dx_n
$$
La función de densidad condicional de un vector aleatorio $(X_1,...,X_n)$ es:
$$
f(x_{k+1},...,x_n|x_1,...,x_k) = \frac{f(x_1,...,x_n)}{f(x_1,...,x_n)}
$$
## Vectores con v.a. independientes
Si las variables del vector $X$ son independientes, entonces
$$
f(x_1,...,x_n) = f_{x_1}(x_1)...f_{x_n}(x_n)
$$
Sean $X_1,X_2,...,X_n$ vectores aleatorios $f(X_1,X_2,...,X_n)$ se dice que los vectores aleatorios son independientes si:
$$
f(x_1,...,x_n) = f_{X_1}(x_1)...f_{X_n}f(X_n) = f_{x_{11}}(x_{11})f_{x_{11}}(x_{12})...f_{x_nn}(x_{nn})
$$
# 1.12 - Distribución Multinomial
Sean $n,m$ enteros positivos y sean
$$
P_1,P_2,...,P_n\\
0\leq P_i \leq 1\\
\sum_{i=1}^{n} P_i = 1
$$
Entonces, el vector aleatorio $(X_1,...,X_n)$ tiene distribución multinomial si
$$
P(X_1=x_1,X_2=x_2,...,X_n = x_n) = \binom{m}{x_1,x_2,...,x_n}P_1^{x_1}P_2^{x_2}...P_n^{x_n}
$$
Decimos así que:
$$
X \sim \text{Mult}(m,P_1,P_2,...,P_n)
$$
Se interpreta como la probabilidad de $m$ éxitos posibles en $n$ ensayos.
## Nota
$$
\binom{m}{x_1,x_2,...,x_n} = \frac{m!}{x_1!x_2!...x_n!}
$$
## Ejemplo
Se lanza un dado 10 veces. El dado no es justo, tal que
$$
P(\text{cara i}) = \frac{i}{21}
$$
Queremos calcular la probabilidad de que, al lanzar el dado $10$ veces, obtengamos:
+ 1 cara 3
+ 2 caras 4
+ 3 caras 5
+ 4 caras 6
Tenemos así
$$
m = 10\\
x_1 = 0, x_2 =0, x_3 = 1, x_4 = 2, x_5 = 3, x_6 = 4\\
P_1 = 1/21, P_2, = 2/21, P3=3/21, P_4=4/21, P_5 = 5/21, P_6 = 6/21
$$
Entonces
$$
\binom{10}{0,0,1,2,3,4}(1/21)^0(2/21)^0(3/21)^1(4/21)^2(5/21)^3(6/21)^4\\
= 0.0059
$$