# Łańcuchy Markowa
$\newcommand{\P}{\mathbb{P}}$
$\newcommand{\E}{\mathbb{E}}$
[TOC]
Zajmujemy się skończoną przestrzenią.
## Oznaczenia
- $E = \{e_1, e_2,\ldots, e_n\}$ - zbiór wartości procesu
- $P(e_i, e_j) = P(i,j)$ (skrót)
- $P$ - macierz przejścia
- $X \sim (\mu, P)$, to łańcuch Markowa z macierzą przejść P, rozkładem początkowym $\mu$.
- $T_{ij} = \min\{n: X_n = e_j, X_0 = e_i\}$
## Definicje
$(X_0, X_1, \ldots)$ - proces losowy o wartościach w $E$ jest łańcuchem Markowa jeśli
$$
\forall n\forall e_i,e_j\in E~\forall i_0,i_1,\ldots,i_{n-1}
$$
$$
\P(X_{n+1}=e_j |
X_0 = e_{i_0}, \ldots, X_{n-1}=e_{i_{n-1}}, X_n = e_i) = P(X_{n+1}=e_j | X_n = e_i)
$$
Proces taki nazywamy jednorodnym, gdy
$$
P(X_{n+1}=e_j | X_n = e_i) = P(X_1 = e_j | X_0 = e_i)
$$
$P$ jest macierzą przejścia łańcucha Markowa, jeśli
$$
\forall i,j P(i,j) \ge 0 \land \forall i \Sigma_j P(i,j) = 1
$$
By w pełni opisać łańcuch Markowa trzeba podać dwie rzeczy
- macierz przejść
- rozkład $X_0$
Rozkład początkowy:
$\mu = \mu^{(0)} = (\mu(e_1), \ldots, \mu(e_m)) = (\P(X_0 = e_1), \ldots, P(X_0=e_m))$
$\mu^{(k)} = (\P(X_k=e_1),\ldots, \P(X_k=e_m)))$
$\mu^{(k)} = \mu P^k$
## Przykłady modeli
#### Model pogody LA
$$
P = \begin{pmatrix}1/2&1/2 \\ 1/10 & 9/10 \end{pmatrix}
$$
$e_1$ - deszcz
$e_2$ - słońce
:::info
Macierz stochastyczna ma zawsze wartość własną 1. :exploding_head:
:::
$\lim_k \mu^k$ = (1/6, 5/6)
#### Model Ehrenfestów
N kulek w pudełku A lub B
Stan to liczba kulek w pudełku A
Losujemy jedną kulkę z rozkładem jednostajnym i przekładamy ją do drugiego pudełka.
#### top-2-random
Tasowanie kart, bierzemy kartę z samej góry i wkładamy w losowe miejse w talii.
:::info
Macierz $P$ można opisać lokalnie.
:::
## Symulacja łańcuchów Markowa
$X \sim (\mu,P)$
### Jak symulować mi?
Klasycznie podzielić odcinek długości 1, na pewne części, aby pstwo wyglądało dobrze.
Funkcja inicjalizująca $\psi: [0,1]\to E$
- kawałkami stała
- $\forall e \int_0^1 1_{\psi(x)=e} dx = \mu(e)$
### Symulowanie procesu Markowa
Funkcja aktuzalizująca: $\varphi: E \times [0,1]\to E$
- Dla ustalonego $e_i$ funkcja $\phi(e_i,\cdot)$ kawałkami stała
- $\forall e_i,e_j \int_0^1 1_{\phi(e_i,x)=e_j}dx = P(e_i,e_j)$
## Rozkład stacjonarny
### Nieredukowalny
Łańcuch Markowa z macierzą przejść $P$ jest nieredukowalny jeśli
$$
\forall e_i, e_j \exists N_{ij}~\P(X_{N_{ij}}=e_j | X_0 = e_i) > 0
$$
### Okres stanu
$d(e_i) = \operatorname{gcd}\{n \ge 1: \P^n(e_i, e_i) > 0\}$
Łańcuch Markowa $X\sim P$ jest nieokresowy jeśli $\forall e_i~d(e_i) = 1$
#### Twierdzenie
$X\sim (\mu,P)$ jest nieokresowy, to $\exists N < \infty$, takie że
$$
\forall e_i \forall_{n\ge N} P^n(e_i, e_i) > 0
$$
##### Lemat (Bremaud)
Jeśli $A = \{a_1, a_2, \ldots\}$
- niekratowy, czyli $\operatorname{gcd}(a_1,\ldots)=1$
- $a, a' \in A \Rightarrow a+a' \in A$
to $\exists N$, takie że $\forall_{n\ge N}~n \in A$
#### Twierdzenie
$X \sim (\mu, P)$ jest nieredukowalny i nieokresowy, to $\exists N_0$, takie że
$$
\forall e_i, e_j P^{N_0}(e_i, e_j) > 0
$$
### Definicja
$X\sim(\mu, P)$ wektor (rozkład) $\pi= (\pi(e_1),\ldots,\pi(e_m))$, taki że
$$
\pi P = \pi
$$
nazywa się rozkładem **stacjonarnym**.
#### Lemat
$\{X_n\}$ - nieredukowalny i nieokresowy, to
$$
\forall i,j~P(T_{ij} < \infty) = 1 \text{ oraz } \E T_{ij} < \infty
$$
#### Twierdzenie
$\{X_n\}$ - nieredukowalny i nieokresowy łańcuch Markowa $\sim (\mu, P)$.
to istnieje przynajmniej jeden rozkład stacjonarny.
#### Twierdzenie
$$
\lim_n \mu^{(n)} = \pi
$$
### Norma całkowitego wahania
#### Definicja
$\mu, \nu$ - rozkłady prawdopodobieństwa na $\{e_1,\ldots,e_m\}$
$$
d_{TV} (\mu, \nu) = \frac 12 \sum_e |\mu(e) - \nu(e)|
$$
#### Definicja
Mówimy, że ciąg miar $\nu^{(k)}$ zbiega do $v$ w TV, jeśli
$$
\lim_{k\to\infty} d_{TV}(\nu^{(k)},v) = 0
$$
#### Twierdzenie
$\{X_n\} \sim (\mu,P)$ nieredukowalny i nieokresowy, to dla każdego rozkładu stacjonarnego
$$
\lim_{k\to\infty} d_{TV} (\mu^{(k)}, \pi) = 0
$$
:::success
Z tego twierdzenia wynika, że istnieje jeden rozkład stacjonarny (granica jest tylko jedna).
:::
## Coupling
### Definicja
Niech $X\sim\mu,~Y\sim\nu$.
Coupling zmiennych losowych $X$ i $Y$ (lub miar $\mu,\nu$) to jest zmienna
losowa $(X', Y')$, taka że $X'\sim \mu,~Y'\sim\nu$.
Inaczej $w: E \times E \to [0,1]$
- $w$ rozkład na $E \times E$
- $\forall e~\sum_{e'} w(e,e') = \mu(e)$
- $\forall e~\sum_{e'} w(e',e) = \nu(e)$
#### Coupling Markowski
$$
\forall e,e',e''~\P(X_{k+1} = e' | X_k = e, Y_k = e'') = P(e,e')\\
\P(Y_{k+1} = e' | Y_k = e, X_k = e'') = P(e,e')
$$
#### Coupling NieMarkowski
$X_k$ może zależeć od $Y_m$ dla $m > k$.
### Twierdzenia
#### Twierdzenie
Dane $X,Y (\mu,\nu)$
- dla każdego couplingu $w$ miar $\mu,\nu$
$$
d_{TV}(\mu,\nu) \le P(X\neq Y)
$$
- istnieje coupling, taki że
$$
d_{TV}(\mu,\nu) = P(X\neq Y)
$$
#### Lemat
Istnieje coupling $(X_k, Y_k),~(X_0\sim \mu, Y_0\sim \pi)$, taki że
$$
d_{TV}(\mu P^k, \pi) = P(T > k)
$$
#### Twierdzenie
$d_{TV}(\mu P^k, \pi)$ jest nierosnącą funkcją od $k$.
:::success
Dzięki temu twierdzeniu takie coś ma sens
$$
\tau^{TV}_{mix}(\varepsilon) = \min\{k: d(\mu P^k, \pi) \le \varepsilon) \}
$$
:::
#### Nierówność couplingowa
$$
d_{TV}(\mu P^k, \pi) \le P(T > k)
$$
#### lemat
Definicja:
$$
\overline d(k) = \max_{e',e''} d_{TV}(P^k(e',\cdot), P^k(e'', \cdot)) = \max_{e',e''} d_{TV}(\delta_{e'}P^k, \delta_{e''}P^k)\\
d(\mu P^k, \pi) \le \overline d(k)
$$
#### Twierdzenie (Griffeath)
Dla każdych $\mu, \nu$ i macierzy przejść $P$, istnieje coupling $(X_k,
Y_k),~X_k\sim P,~X_0\sim\mu,~Y_k\sim P,~Y_0\sim\nu~(X_k=Y_k \Rightarrow Y_{k+1} = X_{k+1})$, taki że
$$
d_{TV} (\mu P^k, \nu P^k) = P(T > k)
$$
## Łańcuchy odwracalne
$X_n$ jest ergodyczny (ERGOD) = nieokresowy + nieredukowalny
### Definicja
$X_n\sim(\mu,P)$ mówimy, że $\pi$ jest miarą odwracalną dla $X_k$ jeśli
$$
\forall e,e'\quad \pi(e) P(e,e') = \pi(e')P(e',e)
$$
#### Lemat
$\pi$-odwracalna $\Rightarrow$ $\pi$ - rozkład stacjonarny
### Definicja
$P$ - regularna = $\exists k\forall e_i,e_j P^k(e_i,e_j)>0$, czyli ergodyczna $\Rightarrow$ regularna.
#### Twierdzenie (Perrona – Frobeniusa)
$P$-macierz regularna, $m \times m$, to
- $|\lambda_1| > |\lambda_i|,~i=2,...,m$
- $|\lambda_1| \in \mathbb{R}$
gdzie $\lambda_i$ to $i$-ta wartość własna.
:::info
$P$ macierz Ł.M $\to~\lambda_1=1$
:::
#### Twierdzenie
$P$ - macierz, $X$ - ergodyczny Ł.M. $\exists \alpha >0$, taka że
$$
|P^k(e_i,e_j)-\pi(e_j)|\le \alpha |\lambda_2|^k
$$
#### Lemat
$X$- Ł.M odwracalny, to
$$
d_{TV}(\delta_eP^k,\pi)\le \frac{1}{2\sqrt{\pi(e)}} |\lambda_2|^k
$$
### Stała Cheegera
#### Definicja
Ł.M $X\sim P$ odwracalny, rozkład stacjonarny $\pi$
$$
\gamma_c = \min_{A\subseteq E, \pi(A) \le \frac{1}{2}} \frac{\sum_{e_i\in A}\sum_{e_j\in A^c}\pi(e_i)P(e_i,e_j)}{\pi(A)}
$$
#### Twierdzenie
$$
1-2\gamma_c \le |\lambda_2| \le 1 - \frac{1}{2}\gamma_c^2
$$
### Stała Poincarego
$$
\Lambda(e_i,e_j) = \pi(e_i)P(e_i,e_j) = \Lambda(e_j, e_i)
$$
GRAF $V = E = \{e_1,\ldots,e_n\},~K = \{\{e_i,e_j\}: \Lambda(e_i,e_j) >0\}$
$\Gamma(e_i,e_j)$ - jednoznacznie ustalona ścieżka z $e_i$ do $e_j$.
$|\Gamma(e_i,e_j)|$ - $\Sigma_{\hat e \in \Gamma(e_i,e_j)} 1$
#### Definicje
$$
\gamma_p = \max_{\hat e}\left\{\frac{1}{\Gamma(\hat e)}\sum_{(e_i,e_j): \hat e\in\Gamma(e_i,e_j)} |\Gamma(e_i,e_j)|\pi(e_i)\pi(e_j)\right\}
$$
#### Twierdzenie
$$
|\lambda_2| \le 1 - \frac{1}{\gamma_p}
$$
## Monte Carlo Markov Chains
Idea: dane $\pi$, chcemy skostruować łańcuch Markowa, tak aby $\pi$ było rozkładem stacjonarnym.
### Algorytm Metropolis
1. symetryczny łańcuch Markowa $Q(e_i,e_j) = Q(e_j, e_i)$
2. Zał, że $Y_n = e$
3. Wylosuj $e'$ zgodnie z $Q(e,e'),~\alpha=\min(1,\frac{\pi(e')}{\pi(e)})$
4. $U\sim U(0,1)$
5. Jeśli $U\le \alpha\Rightarrow Y_{n+1}=e'$, inaczej $Y_{n+1}=e$
#### Lemat
Algorytm metropolis, to łańcuch Markowa o rozkładzie stacjonarnym $\pi$.