Si $Y=g(X)$ y $X$ tiene $f_X(x)$, entonces
$$
f_Y(y) = f_X(g^{-1}(y)) |\frac{dg^{-1}(y)}{dy}|
$$
# 2.1 - Transformaciones en el caso general
## Caso discreto
Sea $(X,Y)$ un v.a. discreto y definimos:
$$
A = \{(x,y): P(X=x,Y=y)>0\}\\
B = \{(u,v): u = g_1(x,y), v = g_2(x,y), (x,y) \in A\}
$$
Entonces
$$
\binom{X}{Y} \rightarrow g(X,Y) = \binom{g_1(X,Y)}{g_2(X,Y)} = \binom{u}{v}
$$
Entonces
$$
A_{uv} = \{(x,y) \in A : g_1(x,y)=u, g_2(x,y)=v\}
$$
Entonces
$$
f_{u,v}(u,v) = P(U=u,V=v) = P((X,Y) \in A_{uv})
$$
### Ejemplo
Sea $X$ y $Y$ dos variables aleatorias independientes $X \sim \text{Po}(\theta), Y \sim \text{Po}(\lambda)$.
Sea
$$
g(X,Y) = \binom{X+Y}{Y} = \binom{u}{v}
$$
Encuentre $f_{u,v}(u,v)$
Definimos
$$
A = \{(x,y) : x \in [0,1,2,...], y \in [0,1,2,...]\}\\
B = \{(u,v) : u = x+y, v = y, (x,y) \in A \}
$$
Entonces
$$
A_{uv} \\
u=x+y, v=y \\
x = u-v, y=v\\
\implies u = x+v\\
\implies u = \{v,v+1,...\}
$$
Entonces
$$
P(U=u,V=v) = P[(X,Y) \in A{uv}] \\
= P[X=u-v,Y=v] \text{por independencia}\\
= P[X=u-v]P[Y=v]\\
= \frac{\theta^{u-v}e^{-\theta}}{(u-v)!}*\frac{\lambda^v e^{-\lambda}}{v!}
$$
## Caso contínuo
Sea $(X,Y)$ un vector aleatorio con $f(x,y)$, entonces queremos conocer la función de densidad de $(u,v)$, donde $U = g_1(X,Y)$ y $V=g_2(X,Y)$ donde $[g(\cdot,\cdot) : \mathbb R^2 \rightarrow \mathbb R]$.
Se definen $A,B, A_{uv}$ como antes se define el sistema de funciones inverso
$$
x = h_1(u,v)\\
y = h_2(u,v)
$$
Entonces:
$$
f_{u,v}(u,v) = f_{x,y} (h_1(u,v),h_2(u,v))|J|
$$
dónde
$$
J = \begin{vmatrix}
\frac{\partial h_1(u,v)}{\partial u} \frac{\partial h_1(u,v)}{\partial v}\\
\frac{\partial h_2(u,v)}{\partial u} \frac{\partial h_2(u,v)}{\partial v}
\end{vmatrix}
$$
Por lo que
$$
(u,v) = (g_1(X,Y),g_2(X,Y)): \text{biyectiva}
$$
Por lo que las marginales son:
$$
f_u(u) = \int_v f_{u,v}(u,v)dv\\
= \int_v f_{X,Y}(h_1(u,v),h_2(u,v))|J|dv
$$
y
$$
f_v(u) = \int_u f_{u,v}(u,v)du\\
= \int_u f_{X,Y}(h_1(u,v),h_2(u,v))|J|du
$$
Igualmente
$$
F_Y(y) = F_X(g^{-1}(y))\\
f_Y(y) = f_X(g^{-1}(y)) |\frac{dg^{-1}(y)}{dy}|
$$
Pero si $X,Y$ son independientes, entonces
$$
f(u,v) = f_X(h_1(u,v))f_Y(h_2(u,v))|J|
$$
## Distribución de una suma
Sea $(X,Y)$ y quiero la función de densidad de $X+Y$.
$$
\binom{X}{Y} = \binom{X+Y}{X \text{ o } Y}
$$
Definimos
$$
A_{uv} = \{(x,y) \in A : x=v, y = u-v\}
$$
Donde $x$ le corresponde $h_1(u,v)$, y a $y$ le corresponde $h_2(u,v)$.
$$
J = \begin{vmatrix}
\frac{\partial h_1(u,v)}{\partial u} \frac{\partial h_1(u,v)}{\partial v}\\
\frac{\partial h_2(u,v)}{\partial u} \frac{\partial h_2(u,v)}{\partial v}
\end{vmatrix} =
\begin{vmatrix}
0 & 1 \\
1 & -1
\end{vmatrix}\\
= -1\\
\therefore |J| = 1
$$
Entonces
$$
f_{u,v} (u,v) = f_{X,Y}(u,u-v)\\
\implies f_{X+Y} (u) = \int_v f_{X,Y} (v,u-v)dv
$$
Si son independientes
$$
f_{X+Y}(u) = \int_V f_X(v) f_Y(u-v) dv
$$
### Ejemplo
Sea $X,Y$ dos v.a. independientes con función de densidad $\text{Exp}(\lambda)$.
$$
f(x|\lambda) = \lambda e^{-x \lambda} \mathbb I_{(0,\infty)}^{(x)}\\
f(y|\lambda) = \lambda e^{-y \lambda} \mathbb I_{(0,\infty)}^{(y)}
$$
Encuentre la densidad de $X+Y$.
Definimos
$$
A = \{(x,y) : 0<x<\infty, 0<y<\infty\}\\
A_{uv} = \{(x,y) \in A : x=v,y=u-v\}\\
B = \{(u,v) : 0<v<\infty, v<y<\infty\}
$$
Por lo tanto
$$
f_{u,v}(u,v) = \lambda e^{-\lambda v} \lambda e^{-\lambda(u-v)}\\
= \lambda^2 e^{-\lambda u} \mathbb I_{(0<v<\infty,v<u<\infty)}^{(u,v)}
$$
Integrando para otener la marginal...
$$
f_{X+Y}(u) = \int_v \lambda^2 e^{-\lambda u} dv = \int_0^u \lambda^2 e^{-\lambda u} dv\\
= \lambda^2 u e^{-\lambda u}\\
= \frac{\lambda^2}{\Gamma(2)} u^{2-1}e^{-\lambda u} \mathbb I_{(0,\infty)}^{(u)}\\
\therefore X+Y \sim \Gamma(2,\lambda)
$$
### Por décima extra
$$
f_{X+Y}(u) = \int_0^u \frac{\lambda^{\alpha + \beta}}{\Gamma(\alpha)\Gamma(\beta)} v^{\alpha - 1} (u-v)^{\lambda -1} e^{-\lambda u} dv
$$
#### Solución
$$
f_{X+Y}(u) = \int_0^u \frac{\lambda^{\alpha + \beta}}{\Gamma(\alpha)\Gamma(\beta)} v^{\alpha - 1} (u-v)^{\lambda -1} e^{-\lambda u} dv\\
= \frac{\lambda^{\alpha + \beta}}{\Gamma(\alpha)\Gamma(\beta)} e^{-\lambda u} \int_0^u v^{\alpha-1} (u-v)^{\alpha-1} dv
$$
## Distribución del Producto
$$
\binom{X}{Y} \rightarrow \binom{u}{v} = \binom{XY}{X}
$$
Definimos
$$
A_{uv} = \{(x,y) \in A : x=v, y = \frac{u}{v}\}\\
f_{u,v}(u,v) = f_{X,Y} (h_1(u,v),h_2(u,v))|J|
$$
Entonces
$$
J = \begin{vmatrix}
0 & 1 \\
\frac{1}{v} & -\frac{u}{v^2}
\end{vmatrix}
= \frac{1}{v}\\
\therefore |J| = \frac{1}{v}
$$
Por lo tatno
$$
f_{u,v}(u) = f_{X,Y}(v,\frac{u}{v})\frac{1}{v}\\
= f_{XY}(u) = \int_v f_{X,Y}(v,\frac{u}{v})\frac{1}{v} dv
$$
Si son independientes
$$
f_{XY}(u) = \int_v f_X(v)f_Y(\frac{u/v})\frac{1}{v}
$$
# 2.3 - Disgtribuciones Especiales
## DEF. - V.a. idénticamente distribuidad
Se dice que $(X_1,X_2,...,X_n)$ es una v.a. de variables idénticamente distribuidas si
$$
f_{x_i}(x) = f_{x_j} (x) \forall i \not = j \\
f_{x_i}(x | \theta) =f_{x_j}(x|\theta)
$$
## DEF. - Muestra aleatoria
A un vector aleatorio con variables aleatorias independientes e idénticamente distribuidas (vaiid) lo vamos a llamar **muestra aleatoria**.
## DEF. - Estadístico
A una función de una variable aleatoria
$$
g(X_1,...,X_n) = g(\underline X)
$$
sele llama estadístico(a).
### Nota - Distribución de muestreo
A la función de densidad de $g(\underline X)$ se le llama distribución de muestreo.
## DEF. - Varios estadísticos
Sea $X_1,X_2,...,X_n$ un vector aleatorio independiente con distribución $\text{N}(\mu,\sigma^2)$, entonces:
$$
a) \; \overline X = \frac{1}{n} \sum_{i=1}^{n} X_i \text{ (media muestral)}\\
b) \; S^2 = \frac{1}{n-1} \sum_{i=1}^n (X_1 - \overline X)^2 \text{ (varianza muestral)}
$$
Nótese que $\overline X, S^2$ son v.a.
## Teorema
Sea $X_1,...,X_n$ un vector aleatorio de vaiid con función de densidad $X_i \sim \text N (\mu,\sigma^2)$,entonces:
$$
a) \; \overline X \sim \text N(\mu,\frac{\sigma^2}{n})\\
b) \; \frac{(n-1)S^2}{\sigma^2} \sim \chi^2 (n-1)\\
c) \; \overline X, S^2 \; \text{son v.a. independientes}
$$
## Distribución $t$
$$
T \equiv \frac{\text N(0,1)}{\sqrt{\frac {\chi^2(n-1)}{(n-1)}}}
$$