###### tags: `Rachunek Prawdopodobieństwa i Statystyka`
# Lista 6
## Zadanie 1
:::info
Niech $X$ ∼ $Geom(p)$ (rozkład geometryczny). Wykazać, że $M_X (t) = \frac{pe^t}{1 − qe^t}$.
:::
$q=1-p$
$X$ ~ $Geom(p)$ Czyli $P(X=k)=(1-p)^{k-1}p$
$M_X(t)=E(e^{tX})=\displaystyle\sum_{k=1}^{+\infty}e^{tk}q^{k-1}p=\frac pq\displaystyle\sum_{k=1}^{+\infty}e^{tk}q^k=\frac pq\displaystyle\sum_{k=1}^{+\infty}(e^{t}q)^k\stackrel{\text{The sum of infinite geometric serie}}{=}\\=\frac pq*\frac{e^tq}{1-e^tq}=\frac{pe^t}{1-e^tq}$
$\qquad\qquad\qquad\qquad\qquad\blacksquare$
## Zadanie 2
:::info
Niech $X ∼ Geom(p)$. Korzystając z funkcji $M_X (t)$ obliczyć $E(X)$ oraz $V(X)$.
:::
$M_X(t)'=(\frac{pe^t}{1-e^tq})'=p(\frac{e^t}{1-e^tq})'=p(\frac{e^t(1-e^tq)-e^t(-qe^t)}{(1-e^tq)^2})=p(\frac{e^t(1-e^tq+qe^t)}{(1-e^tq)^2})=\\=p(\frac{e^t(1-e^tq+qe^t)}{(1-e^tq)^2})=p(\frac{e^t}{(1-e^tq)^2})$
$E(X)=M_X(0)'=p(\frac{1}{(1-q)^2})=\frac{p}{(1-(1-p))^2}=\frac{p}{(-p)^2}=\frac1p$
$M_X(t)''=p(\frac{e^t}{(1-e^tq)^2})'=-\frac{pe^t(qe^t+1)}{(qe^t-1)^3}$
$E(X^2)=M_X(0)''=-\frac{p(q+1)}{(q-1)^3}=-\frac{p(1-p+1)}{(-p)^3}=\frac{1-p+1}{p^2}=\frac{2-p}{p^2}$
$V(X)=E(X^2) - E(X)=\frac{2-p}{p^2}-\frac1{p^2}=\frac{1-p}{p^2}$
## Zadanie 3
:::info
Dla $X ∼ N(μ, σ^2)$ mamy $f(x) = \frac1{\sqrt{2π}σ}exp(−\frac{(x − μ)^2}{2σ^2})$, $x ∈ R$. Udowodnić, że postać $M_X (t)$ jest następująca: $M_X (t) = exp(μt + \frac12 σ^2t^2)$.
:::
$M_X(t)=\displaystyle\int_{\mathbb{R}}e^{xt}f(x)dx=\displaystyle\int_{\mathbb{R}}e^{xt}\frac1{\sqrt{2π}σ}exp(−\frac{(x − μ)^2}{2σ^2})dx=*$
Podstawienie:
$z=\frac{x-\mu}{\sigma}$
$x=z\sigma+\mu$
$dx=\sigma dz$
$*=\displaystyle\int_{\mathbb{R}}e^{(z\sigma+\mu)t}\frac1{\sqrt{2π}σ}exp(−\frac{z^2}{2})\sigma dz=e^{\mu t}\displaystyle\int_{\mathbb{R}}e^{z\sigma t}\frac1{\sqrt{2π}}exp(−\frac{z^2}{2}) dz=\\=e^{\mu t}\displaystyle\int_{\mathbb{R}}e^{z*(\sigma t)}\frac1{\sqrt{2π}}exp(−\frac{z^2}{2}) dz=*$

*Fragment notatek z wykładu 24.03.2022r.*
$*=e^{\mu t}*e^{\frac{(\sigma t)^2}{2}}=exp(\mu t+\frac{1}{2}\sigma^2t^2)$
$\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\blacksquare$
## Zadanie 4
:::info
Zmienne $X_1, . . . , X_n$ są niezależne i $X_k ∼ N(μ, σ2)$. Znaleźć funkcję tworzącą momenty $M_{\stackrel{\_}{X}} (t)$ zmiennej $\stackrel{\_}{X}$ ($\stackrel{\_}{X}$ to średnia z $X_1, . . . , X_n$), a następnie zidentyfikować rozkład zmiennej $\stackrel{\_}{X}$.
:::
$\stackrel{\_}{X}=\frac1n\displaystyle\sum_{k=1}^nX_k$
$M_\stackrel{\_}{X}(t)=\displaystyle\prod_{k=1}^nM_X(\frac tn)=exp(\frac{\mu t}{n}+\frac12\sigma^2\frac {t^2}{n^2})^n=exp(\mu t+\frac12\sigma^2\frac {t^2}{n})$
$\stackrel{\_}{X}\text{~}N(\mu, \frac{\sigma^2}{n})$
## Info do zadań 5,6
:::info
**[Z. 5–6]** Zmienna $Z$ ∼ $Gamma(b, p)$ ma $MGF$ postaci $M_Z(t) =(1 − \frac tb)^{−p}$. Dodatkowo wiemy że: $Γ(1/2) = \sqrt π$
:::
## Zadanie 5
:::info
Niech $X ∼ N(μ, σ2)$. Znaleźć rozkład zmiennej $Y =(\frac{X − μ}{σ})^2$.
:::
Niech $Z=\frac{X − μ}{σ}$
Wtedy:
$M_Z(t)=M_\frac{X − μ}{σ}(t)=M_{\frac{1}{σ}X-\frac{\mu}{\sigma}}(t)=e^{(-\frac{\mu}{\sigma})t}M_X(\frac{1}{σ}t)=e^{(-\frac{\mu}{\sigma})t}M_X(\frac{t}{σ})=\\=e^{(-\frac{\mu}{\sigma})t}*exp(\mu \frac{t}{σ}+\frac{1}{2}\sigma^2(\frac{t}{σ})^2)=e^{(-\frac{\mu}{\sigma})t}*exp(\mu \frac{t}{σ}+\frac{1}{2}t^2)=e^{(-\frac{\mu}{\sigma})t}*e^{ \frac{t\mu}{σ}+\frac{1}{2}t^2}=e^{(-\frac{\mu}{\sigma})t+ \frac{t\mu}{σ}+\frac{1}{2}t^2}=\\=e^{\frac12t^2}$
$Z$~$N(0,1)$
$Y=Z^2$
Z zadania $5.4$ wiemy, że zmienna $Y=Z^2$, gdzie $Z$~$N(0,1)$ ma rozkład $Gamma(\frac12, \frac12)$
## Zadanie 6
:::info
Zmienne $X_1, . . . , X_n$ są niezależne oraz $X_k ∼ N(μ, σ^2)$. Znaleźć rozkład zmiennej $Z_n =\displaystyle\sum_{k=1}^n(\frac{X_k − μ}{σ} )^2$.
:::
$M_G(t)=(1 − \frac tb)^{−p}$ gdzie $G$ ~ $Gamma(b, p)$
Z zadanie $6.5$
$Y = (\frac{X_k − μ}{σ} )^2$, $Y$ ~ $Gamma(\frac12, \frac12)$
Czyli $M_Y(t)=(1-\frac{t}{\frac12})^{-\frac12}$
$M_Z(t)=\displaystyle\prod_{k=1}^{n}(1-\frac{t}{\frac12})^{-\frac12}=(1-\frac{t}{\frac12})^{-\frac n2}$
$Z$ ~ $Gamma(\frac12, \frac n2)$
## Info do zadań 7 i 8
:::info
**[Z. 7–8]** Znaleźć rozkład, któremu podlega zmienna $Z =\displaystyle\sum_{k=1}^nX_k$. O występujących w tych zadaniach zmiennych zakładamy, że są niezależne. Rozwiązujemy zadania używając ”MGFy” (funkcje generujące momenty).
:::
## Zadanie 7
:::info
$X_k ∼ Gamma(b, p_k),\space k = 1, . . . , n$.
:::
$M_G(t)=(1 − \frac tb)^{−p_k}$ gdzie $G$ ~ $Gamma(b, p_k)$
$M_Z(t)=\displaystyle\prod_{k=1}^nM_{X_k}(t)=\displaystyle\prod_{k=1}^n(1- \frac tb)^{-p_k}=(1- \frac tb)^{-\displaystyle\sum_{k=1}^np_k}$
$Z$ ~ $Gamma(b, \displaystyle\sum_{k=1}^np_k)$
## Zadanie 8
:::info
$X_k ∼ B(m_k, p), k = 1, . . . , n$.
:::
$M_B(t)=(1-p+pe^t)^{m_k}$, gdzie $B$ ~ $B(m_k, p), k = 1, . . . , n$
$M_Z(t)=\displaystyle\prod_{k=1}^nM_{X_k}(t)=\displaystyle\prod_{k=1}^n(1-p+pe^t)^{m_k}=(1-p+pe^t)^{\displaystyle\sum_{k=1}^nm_k}$
$Z$ ~ $B(\displaystyle\sum_{k=1}^nm_k, p)$
## Zadanie 9 X
:::info
Zakładamy, że zmienne $X_1, X_2, . . . , X_n, Y_1, Y_2, . . . , Y_k$ są niezależne i podlegają rozkładowi $N (0, 1)$. W jaki sposób można utworzyć poniższe zmienne:
:::
### a) X
:::info
$U ∼ χ^2(k)$,
:::
### b) X
:::info
$T ∼ t(n)$,
:::
### c) X
:::info
$V ∼ F(k, n)$
:::
## Zadanie 10
:::info
Zmienna losowa $X$ ma $MGF$ o postaci $M_X (t)$. Zmienna losowa $Y$ jest pewną funkcją zmiennej $X$. Co można powiedzieć o $Y$ (założenia i od jakich zmiennych zależy $Y$) jeżeli:
:::
### a)
:::info
$M_Y (t) = M_X (2t) * M_X (4t)$,
:::
$M_Y (t) = M_X (2t) * M_X (4t)=M_{2X} (t) * M_{4X} (t)$
Czyli $Y=2X+4X=6X$
### b)
:::info
$M_Y (t) = e^{2t}M_X (t)$,
:::
$M_Y (t) = e^{2t}M_X (t)=M_{X+2}(t)$
*https://en.wikipedia.org/wiki/Moment-generating_function#Linear_transformations_of_random_variables*
czyli $Y=X+2$
### c)
:::info
$M_Y (t) = 4M_X (t)$.
:::
Nie istnieje taka zmienna losowa $Y$, ponieważ dla $t=0$
$M_Y (0)=1\neq4*1=4M_X (0)$
## Info do zadań 11, 12
:::info
**[Zadania 11–12]** Zakładamy, że niezależne zmienne losowe $X_k$ podlegają rozkładowi $N (μ, σ^2)$.
**(1)** $\displaystyle\sum_{k=1}^n(X_k − μ)^2 =\displaystyle\sum_{k=1}^n(X_k − \stackrel{\_}{X})^2+ n ( \stackrel{\_}{X}− μ)^2.$
:::
## Zadanie 11
:::info
**E1** Znaleźć (wraz z uzasadnieniem) rozkład zmiennej $M = \frac n{σ^2} * ( \stackrel{\_}{X} − μ)^2$
:::
Z wykładu z 7 kwietnia wiemy, że jeżeli $Y=\frac{\overline X - \mu}{\sigma}\sqrt n\space$ to $Y$ ~ $N(0,1)$
Wtedy $Y^2=( \frac{\overline X - \mu}{\sigma}\sqrt n)^2=\frac n{σ^2} * ( \stackrel{\_}{X} − μ)^2=M$
Skoro $M=Y^2$ oraz $Y$ ~ $N(0,1)$ to z definicji $\chi^2\rightarrow$ $M$ ~ $\chi^2(1)$
## Zadanie 12 X
:::info
**E1** Załóżmy, że zmienne $\stackrel{\_}{X}=\frac1n\displaystyle\sum_{k=1}^nX_k$ oraz $S^2 = \frac1n\displaystyle\sum_{k=1}^n(X_k − \stackrel{\_}{X})^2$ są niezależne. Korzystając z równania **(1)** udowodnić, że $\frac{nS^2}{σ^2} ∼ χ^2(n − 1) ≡ Gamma( \frac12 , \frac{n − 1}2)$
:::
<br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br>