Si $Y=g(X)$ y $X$ tiene $f_X(x)$, entonces $$ f_Y(y) = f_X(g^{-1}(y)) |\frac{dg^{-1}(y)}{dy}| $$ # 2.1 - Transformaciones en el caso general ## Caso discreto Sea $(X,Y)$ un v.a. discreto y definimos: $$ A = \{(x,y): P(X=x,Y=y)>0\}\\ B = \{(u,v): u = g_1(x,y), v = g_2(x,y), (x,y) \in A\} $$ Entonces $$ \binom{X}{Y} \rightarrow g(X,Y) = \binom{g_1(X,Y)}{g_2(X,Y)} = \binom{u}{v} $$ Entonces $$ A_{uv} = \{(x,y) \in A : g_1(x,y)=u, g_2(x,y)=v\} $$ Entonces $$ f_{u,v}(u,v) = P(U=u,V=v) = P((X,Y) \in A_{uv}) $$ ### Ejemplo Sea $X$ y $Y$ dos variables aleatorias independientes $X \sim \text{Po}(\theta), Y \sim \text{Po}(\lambda)$. Sea $$ g(X,Y) = \binom{X+Y}{Y} = \binom{u}{v} $$ Encuentre $f_{u,v}(u,v)$ Definimos $$ A = \{(x,y) : x \in [0,1,2,...], y \in [0,1,2,...]\}\\ B = \{(u,v) : u = x+y, v = y, (x,y) \in A \} $$ Entonces $$ A_{uv} \\ u=x+y, v=y \\ x = u-v, y=v\\ \implies u = x+v\\ \implies u = \{v,v+1,...\} $$ Entonces $$ P(U=u,V=v) = P[(X,Y) \in A{uv}] \\ = P[X=u-v,Y=v] \text{por independencia}\\ = P[X=u-v]P[Y=v]\\ = \frac{\theta^{u-v}e^{-\theta}}{(u-v)!}*\frac{\lambda^v e^{-\lambda}}{v!} $$ ## Caso contínuo Sea $(X,Y)$ un vector aleatorio con $f(x,y)$, entonces queremos conocer la función de densidad de $(u,v)$, donde $U = g_1(X,Y)$ y $V=g_2(X,Y)$ donde $[g(\cdot,\cdot) : \mathbb R^2 \rightarrow \mathbb R]$. Se definen $A,B, A_{uv}$ como antes se define el sistema de funciones inverso $$ x = h_1(u,v)\\ y = h_2(u,v) $$ Entonces: $$ f_{u,v}(u,v) = f_{x,y} (h_1(u,v),h_2(u,v))|J| $$ dónde $$ J = \begin{vmatrix} \frac{\partial h_1(u,v)}{\partial u} \frac{\partial h_1(u,v)}{\partial v}\\ \frac{\partial h_2(u,v)}{\partial u} \frac{\partial h_2(u,v)}{\partial v} \end{vmatrix} $$ Por lo que $$ (u,v) = (g_1(X,Y),g_2(X,Y)): \text{biyectiva} $$ Por lo que las marginales son: $$ f_u(u) = \int_v f_{u,v}(u,v)dv\\ = \int_v f_{X,Y}(h_1(u,v),h_2(u,v))|J|dv $$ y $$ f_v(u) = \int_u f_{u,v}(u,v)du\\ = \int_u f_{X,Y}(h_1(u,v),h_2(u,v))|J|du $$ Igualmente $$ F_Y(y) = F_X(g^{-1}(y))\\ f_Y(y) = f_X(g^{-1}(y)) |\frac{dg^{-1}(y)}{dy}| $$ Pero si $X,Y$ son independientes, entonces $$ f(u,v) = f_X(h_1(u,v))f_Y(h_2(u,v))|J| $$ ## Distribución de una suma Sea $(X,Y)$ y quiero la función de densidad de $X+Y$. $$ \binom{X}{Y} = \binom{X+Y}{X \text{ o } Y} $$ Definimos $$ A_{uv} = \{(x,y) \in A : x=v, y = u-v\} $$ Donde $x$ le corresponde $h_1(u,v)$, y a $y$ le corresponde $h_2(u,v)$. $$ J = \begin{vmatrix} \frac{\partial h_1(u,v)}{\partial u} \frac{\partial h_1(u,v)}{\partial v}\\ \frac{\partial h_2(u,v)}{\partial u} \frac{\partial h_2(u,v)}{\partial v} \end{vmatrix} = \begin{vmatrix} 0 & 1 \\ 1 & -1 \end{vmatrix}\\ = -1\\ \therefore |J| = 1 $$ Entonces $$ f_{u,v} (u,v) = f_{X,Y}(u,u-v)\\ \implies f_{X+Y} (u) = \int_v f_{X,Y} (v,u-v)dv $$ Si son independientes $$ f_{X+Y}(u) = \int_V f_X(v) f_Y(u-v) dv $$ ### Ejemplo Sea $X,Y$ dos v.a. independientes con función de densidad $\text{Exp}(\lambda)$. $$ f(x|\lambda) = \lambda e^{-x \lambda} \mathbb I_{(0,\infty)}^{(x)}\\ f(y|\lambda) = \lambda e^{-y \lambda} \mathbb I_{(0,\infty)}^{(y)} $$ Encuentre la densidad de $X+Y$. Definimos $$ A = \{(x,y) : 0<x<\infty, 0<y<\infty\}\\ A_{uv} = \{(x,y) \in A : x=v,y=u-v\}\\ B = \{(u,v) : 0<v<\infty, v<y<\infty\} $$ Por lo tanto $$ f_{u,v}(u,v) = \lambda e^{-\lambda v} \lambda e^{-\lambda(u-v)}\\ = \lambda^2 e^{-\lambda u} \mathbb I_{(0<v<\infty,v<u<\infty)}^{(u,v)} $$ Integrando para otener la marginal... $$ f_{X+Y}(u) = \int_v \lambda^2 e^{-\lambda u} dv = \int_0^u \lambda^2 e^{-\lambda u} dv\\ = \lambda^2 u e^{-\lambda u}\\ = \frac{\lambda^2}{\Gamma(2)} u^{2-1}e^{-\lambda u} \mathbb I_{(0,\infty)}^{(u)}\\ \therefore X+Y \sim \Gamma(2,\lambda) $$ ### Por décima extra $$ f_{X+Y}(u) = \int_0^u \frac{\lambda^{\alpha + \beta}}{\Gamma(\alpha)\Gamma(\beta)} v^{\alpha - 1} (u-v)^{\lambda -1} e^{-\lambda u} dv $$ #### Solución $$ f_{X+Y}(u) = \int_0^u \frac{\lambda^{\alpha + \beta}}{\Gamma(\alpha)\Gamma(\beta)} v^{\alpha - 1} (u-v)^{\lambda -1} e^{-\lambda u} dv\\ = \frac{\lambda^{\alpha + \beta}}{\Gamma(\alpha)\Gamma(\beta)} e^{-\lambda u} \int_0^u v^{\alpha-1} (u-v)^{\alpha-1} dv $$ ## Distribución del Producto $$ \binom{X}{Y} \rightarrow \binom{u}{v} = \binom{XY}{X} $$ Definimos $$ A_{uv} = \{(x,y) \in A : x=v, y = \frac{u}{v}\}\\ f_{u,v}(u,v) = f_{X,Y} (h_1(u,v),h_2(u,v))|J| $$ Entonces $$ J = \begin{vmatrix} 0 & 1 \\ \frac{1}{v} & -\frac{u}{v^2} \end{vmatrix} = \frac{1}{v}\\ \therefore |J| = \frac{1}{v} $$ Por lo tatno $$ f_{u,v}(u) = f_{X,Y}(v,\frac{u}{v})\frac{1}{v}\\ = f_{XY}(u) = \int_v f_{X,Y}(v,\frac{u}{v})\frac{1}{v} dv $$ Si son independientes $$ f_{XY}(u) = \int_v f_X(v)f_Y(\frac{u/v})\frac{1}{v} $$ # 2.3 - Disgtribuciones Especiales ## DEF. - V.a. idénticamente distribuidad Se dice que $(X_1,X_2,...,X_n)$ es una v.a. de variables idénticamente distribuidas si $$ f_{x_i}(x) = f_{x_j} (x) \forall i \not = j \\ f_{x_i}(x | \theta) =f_{x_j}(x|\theta) $$ ## DEF. - Muestra aleatoria A un vector aleatorio con variables aleatorias independientes e idénticamente distribuidas (vaiid) lo vamos a llamar **muestra aleatoria**. ## DEF. - Estadístico A una función de una variable aleatoria $$ g(X_1,...,X_n) = g(\underline X) $$ sele llama estadístico(a). ### Nota - Distribución de muestreo A la función de densidad de $g(\underline X)$ se le llama distribución de muestreo. ## DEF. - Varios estadísticos Sea $X_1,X_2,...,X_n$ un vector aleatorio independiente con distribución $\text{N}(\mu,\sigma^2)$, entonces: $$ a) \; \overline X = \frac{1}{n} \sum_{i=1}^{n} X_i \text{ (media muestral)}\\ b) \; S^2 = \frac{1}{n-1} \sum_{i=1}^n (X_1 - \overline X)^2 \text{ (varianza muestral)} $$ Nótese que $\overline X, S^2$ son v.a. ## Teorema Sea $X_1,...,X_n$ un vector aleatorio de vaiid con función de densidad $X_i \sim \text N (\mu,\sigma^2)$,entonces: $$ a) \; \overline X \sim \text N(\mu,\frac{\sigma^2}{n})\\ b) \; \frac{(n-1)S^2}{\sigma^2} \sim \chi^2 (n-1)\\ c) \; \overline X, S^2 \; \text{son v.a. independientes} $$ ## Distribución $t$ $$ T \equiv \frac{\text N(0,1)}{\sqrt{\frac {\chi^2(n-1)}{(n-1)}}} $$