--- title: 指數分佈和Gamma分佈|第八週 tags: 機率 --- # 指數分佈 Exponential distribution 今天,~~我有冰淇淋~~ 我想知道,直到發生某件事情,我所需等待的時間是某個特定值,的機率。 我們不在意到底是甚麼事,總之就是一件事,但是那件事要服從 Poisson 分佈。 於是我們建立一個隨機變數來說明這件事: $$ P(W =w),w\ge 0 $$ $w$ 就是我所需等待的特定時間;所以上面的機率翻譯下來就是: :::info 直到該事情發生,我需要等待 $w$ 時間的機率 ::: 通常要找到一個連續型隨機變數,某個特定的機率,都是對 CDF 在該點微分得到的,所以我們將上面修改成 CDF: $$ P(W \le w) $$ 這個 CDF 翻譯下來就是: :::info 直到該事情發生,我需要等待**小於等於** $w$ 時間的機率 ::: ## CDF 那這個 CDF 要怎麼算?時間小於等於 $w$ 的機率,代表我小於的機率要算,等於的機率也要算,非常的難算,我們並不知道怎麼算。 但是我們可以使用傳統藝能,反著算: $$ P(W \le w)=1-P(W > w) $$ 那...弄反之後的 $P(W > w)$ 我們會算嗎?我們好像也不會🫠 但是如果把機率翻譯翻譯,會得到: :::info 直到該事情發生,我需要等待大於 $w$ 時間的機率 ::: 這句話,其意義等同於: :::success 在時間小於等於 $w$ 之內,**沒有任何事情發生的機率** ::: 這段敘述有沒有非常熟悉,還有那個關鍵敘述「在某段時間之內」。 沒錯,這正好就是我們卜瓦松在算的東西;所以如果給定卜瓦松,單位間距的$\lambda$值,而我們現在想要算的間距長度是$w$,所以該區間卜瓦松的參數就是 $w\lambda$;然後我們要求的是發生次數為 0 的機率。 $$ P(W > w)=P(X=0)=\frac{(w\lambda)^{0}e^{-w\lambda}}{0!}=e^{-w\lambda} $$ 把這個合併回去,就得到我們要的 CDF 了。 $$ P(W \le w)=1-e^{-w\lambda} $$ ::: warning 所以,W 這個隨機變數所說的那個發生的事件,他要服從卜瓦松分佈,才可以進行後面的推導 ::: ## PDF CDF 再對 w 微分,就可以得到 PDF $$ P(W = w)=\lambda e^{-w\lambda} $$ ### 表示法 $\lambda$ 和 $\beta$ - $\lambda >0$,叫做變化率參數 rate parameter - $\beta = \frac{1}{\lambda} >0$ 叫做規模參數 scale parameter 所以上面還有另外一種表示法 - CDF : $1-e^{\frac{-w}{\beta}}$ - PDF : $\frac{1}{\beta} e^{\frac{-w}{\beta}}$ 但是要注意這裡的表示法會跟底下 Gamma 的不一樣 - 泊松的 $\lambda$ 是一段時間內平均會發生幾次 $\frac{次數}{區間}$ - 指數分佈的 $\beta$ 是平均要等多久才發生一次 $\frac{區間}{次數}$ 指數分佈,在某些情況不合理,像是燈泡要多久才會壞掉,會出現新品跟二手貨的用到壞掉時間一樣; 因為當初泊松在假設的時候,兩個不重疊子區間機率是獨立的,但是事實上在那些例子中,也包括現實很多情景中,機率並不獨立。 也因此這種分佈不適合用在這類情境上。 ## MGF 複習一下 MGF 的公式 $$ E[e^{tX}]=\int_{-\infty}^{\infty}e^{tx}f_{X}(x)dx $$ 但是可以注意到,這裡 x 是會大於 0 的,畢竟總不可能你等的時間是負的... $$ E[e^{tX}]=\int_{0}^{\infty}e^{tx}\lambda e^{-x\lambda}dx=\int_{0}^{\infty}\lambda e^{x(t-\lambda)}dx=\frac{\lambda}{t-\lambda}e^{x(t-\lambda)}|^{\infty}_{0} $$ 這時候要想起我們的 t 是一個很接近 0 的數,並且是介於一個正負區間內 $-h<t<h$ 所以如果上面指數部分的 $(t-\lambda)$,結果小於等於 0 的話,上面的積分就存在: $$ M(t)=\frac{\lambda}{t-\lambda}(0-1)=\frac{\lambda}{\lambda-t} $$ 有了這個,使用傳統藝能計算期望值和變異數 $$ M'(t)=\frac{\lambda}{(\lambda-t)^{2}},M''(t)=\frac{2\lambda}{(\lambda-t)^{3}}\\ E[X]=M'(0)=\frac{1}{\lambda}\\ Var[X]=M''(0)-(M'(0))^{2}=\frac{2}{\lambda^{2}}-\frac{1}{\lambda^{2}}=\frac{1}{\lambda^{2}}\\ $$ ## 分位距 可從 CDF 公式導出;設 F 是想要知道的位距 $$ 1-e^{-x\lambda} = \frac{F}{100} \Rightarrow \frac{100-F}{100}=e^{-x\lambda}\\ \Rightarrow ln(\frac{100-F}{100})=-x\lambda, \Rightarrow x = -\frac{ln(\frac{100-F}{100})}{\lambda}\\ \Rightarrow x = -\theta ln(\frac{100-F}{100}) $$ 所以可以知道 - 中位數:$-\frac{ln(\frac{50}{100})}{\lambda}=\frac{ln(2)}{\lambda}$ - 第三四分位距 : $-\frac{ln(\frac{25}{100})}{\lambda}=\frac{ln(4)}{\lambda}$ - 第一四分位距 : $-\frac{ln(\frac{75}{100})}{\lambda}=\frac{ln(\frac{4}{3})}{\lambda}$ ## 遺忘性 / 記憶性 forgetfulness / no memory 由於指數分布的推導過程的前提是藉由 Poission 分佈,也就是代表事件之間的機率是獨立的,因此拿來模擬某些情況的時候,會出現二手貨壞掉的機率跟全新或壞掉的機率一樣,所以要拿來模擬的時候要注意。 --- # Gamma distribution Gamma 分佈跟指數分佈是同樣的道理,但是從發生 1 次變成發生 $k$ 次,因此在轉換 $P(W > w)$ 的地方就不太一樣。 :::success 這個對應關係就好像 - Bernoulli 對應 Binomial - Geometric 對應 NegBinomial ::: $$ P(W > w) $$ 這個機率在這裡翻譯下來會是: :::info 直到該事情發生 $k$ 次,我需要等待大於 $w$ 時間的機率 ::: 這句話,其意義等同於: :::info 在時間小於等於 $w$ 之內,事情發生的次數小於 $k$ 次 ::: 於是再使用我們的卜瓦松 $$ P(W > w)=P(X < k)=\sum^{k-1}_{n=0}\frac{(w\lambda)^{n}e^{-w\lambda}}{n!} $$ 於是我們將這坨貼回去就得到 Gamma 分佈的 CDF $$ P(W \le w)=1-\sum^{k-1}_{n=0}\frac{(w\lambda)^{n}e^{-w\lambda}}{n!}\\ =1-e^{-w\lambda}\sum^{k-1}_{n=0}\frac{(w\lambda)^{n}}{n!} $$ :::info 其中的 k 通常表示為 $\alpha$,這就是 gamma 分佈的重要參數 ::: ## PDF 一樣,CDF 對 w 微分的話會得到 PDF $$ (-e^{-w\lambda}\sum^{k-1}_{n=0}\frac{(w\lambda)^{n}}{n!})'=\lambda e^{-w\lambda}\sum^{k-1}_{n=0}\frac{(w\lambda)^{n}}{n!}+-e^{-w\lambda}\sum^{k-1}_{n=0}\frac{n\lambda (w\lambda)^{n-1}}{n!}\\ =\lambda e^{-w\lambda}\sum^{k-1}_{n=0}\frac{(w\lambda)^{n}}{n!}-\lambda e^{-w\lambda}\sum^{k-1}_{n=0}\frac{n(w\lambda)^{n-1}}{n!}\\ =\lambda e^{-w\lambda}\sum^{k-1}_{n=0}\frac{(w\lambda)^{n}}{n!}-\frac{(w\lambda)^{n-1}}{(n-1)!}=\lambda e^{-w\lambda}\frac{(w\lambda)^{k-1}}{(k-1)!}\\ $$ 於是上面最後的結果就是我們 Gamma function 的 PDF: $$ P(W=w)=\lambda e^{-\lambda w}\frac{(\lambda w)^{k-1}}{(k-1)!} $$ 而會叫做 Gamma 的原因是底下的那個階乘,回顧起 Gamma 函數: $$ \Gamma(n)=(n-1)! $$ 然後如果將 $\lambda = \frac{1}{\theta}, \alpha = k$ 的關係帶入會得到 $$ P(W=w)=\frac{1}{\Gamma(\alpha)\theta ^{\alpha}}w^{\alpha -1}e^{-\frac{w}{\theta}} $$ ### 表示法 有兩種等價的表示法 - Rate parameter : $\alpha$ - Inverse Scale parameter : $\beta$ 注意這裡的 $\beta$ 跟上面指數分佈的不一樣 - Rate parameter : $k$ - Scale parameter : $\theta$ 其中: $$ \theta = \frac{1}{\lambda} = \frac{1}{\beta} $$ 然後 $\alpha$ 跟 $k$ 似乎可以混用 ## MGF 推導過程目前省略 $$ M(t)=\frac{1}{(1-\frac{t}{\lambda})^{\alpha}}=\frac{1}{(1-\theta t)^{\alpha}} $$ ## 期望值、變異數 $$ \mu = \alpha\theta\\ \sigma^{2}=\alpha\theta^{2} $$ --- # 比較一下 ## CDF ### Exponential $$ P(W \le w)=1-e^{-\lambda w} $$ ### Gamma $$ P(W \le w)=1-e^{-\lambda w}\sum^{k-1}_{n=0}\frac{(\lambda w)^{n}}{n!} $$ ## PDF ### Exponential $$ P(W = w)=\lambda e^{-\lambda w} $$ ### Gamma $$ P(W=w)=\lambda e^{-\lambda w}\frac{(\lambda w)^{k-1}}{(k-1)!} $$ ## MGF ### Exponential $$ M(t)=\frac{\lambda}{\lambda-t}=\frac{1}{1-\frac{t}{\lambda}} $$ ### Gamma $$ M(t)=\frac{1}{(1-\frac{t}{\lambda})^{\alpha}}=\frac{1}{(1-\theta t)^{\alpha}} $$ ## 期望值、變異數 ### Exponential $$ \mu = \frac{1}{\lambda}\\ \sigma^{2}=\frac{1}{\lambda^{2}}\\ $$ ### Gamma $$ \mu = \alpha\theta\\ \sigma^{2}=\alpha\theta^{2} $$