機率

機率模型

什麼是機率模型?

結果不確定的實驗、現象、情況的量化

建立機率模型的兩步驟

  1. 描述可能的實驗結果 - 樣本空間 (sample space)
    樣本空間 (sample space): 可能的結果的集合,用
    Ω
    表示。
    Ω
    必須符合:
    1. Mutually exclusive: 一次只會出現一個結果
    2. Collectively exhaustive: 所有結果的機率總合為 1 (i.e. 不會出現不再
      Ω
      的結果)
    3. At the right granularity: 用相關的事件當
      Ω
  2. 確立機率法則 - 告訴我們哪個結果比較有可能
    • 我們要知道的是事件 (event) 的機率
      • 事件 (event):
        Ω
        的子集合
      • 假設一事件
        A
        則該事件的機率表示為
        P(A)
    • 機率的三個公理 (axiom)
      a. 非負 (non-negative):
      P(A)0

      b. 正規化 (normalization):
      P(Ω)=1

      c. 可加法 (additivity):
      AB=ΦP(AB)=P(A)+P(B)

機率的公理

由前面機率的三個公理,我們可以衍伸一些新的結果。

  1. P(A)1

    證明:
    1=P(Ω)=P(AAC)=P(A)+P(AC)P(A)=1P(AC)1
  2. P(Φ)=0

    證明:
    1=P(Ω)+P(ΩC)1=1+P(Φ)P(Φ)=0
  3. 如果
    A,B,C
    沒有交集則
    P(ABC)=P(A)+P(B)+P(C)

    可延伸至多個事件
    P(A0A1...An)=i=0nP(Ai)
  4. ABP(A)P(B)

    證明:
    B=A(ACB)P(B)=P(A)+P(ACB)P(A)
  5. P(AB)=P(A)+P(B)P(AB)

    證明:
    P(AB)=P(ABC)+P(AB)+P(ACB)
    =(P(ABC)+P(AB))+(P(AB)+P(ACB))P(AB)
    =P(A)+P(B)P(AB)
  6. P(AB)P(A)+P(B)
    (上限)

條件機率

我們一開始知道知道某個事件的初始機率,而當我們得到一個新的資訊 (條件) 後,使得原本的機率因為這個新的資訊而有新的機率。

條件機率的數學表示

P(A|B): 當事件
B
發生時
A
的機率

條件機率的定義

P(A|B)=P(AB)P(B),P(B)>0


機率條件和一般機率一樣有三個公理

  1. P(A|B)0
  2. P(Ω|B)=1

B 發生時整個樣本空間的機率其實就是只會出現
B
的機率,所以
P(Ω|B)=P(B|B)=1

  1. AB=ΦP(AB|C)=P(A|C)+P(B|C)

乘法定律 (multiplication rule)

P(AB)=P(A)P(B|A)=P(B)P(A|B)

A
B
發生的機率等於
A
發生的機率和
A
發生時
B
發生的機率的乘積。

全機率定理 (total probability theorem)

Image Not Showing Possible Reasons
  • The image file may be corrupted
  • The server hosting the image is unavailable
  • The image path is incorrect
  • The image format is not supported
Learn More →

P(B)=i=13P(Ai)P(B|Ai)

條件機率模型範例

定義模型:

  • 事件
    A
    : 飛機在天上飛
    • P(A)=0.05,P(AC)=0.95
  • 事件
    B
    : 雷達偵測到天上有物體
    • P(B|A)=0.99,P(BC|A)=0.01,P(B|AC)=0.1,P(BC|AC)=0.9

當飛機在天上飛並且被雷達偵測到的機率:

P(AB)=P(A)P(B|A)=0.05×0.99=0.495

雷達偵測到天上有物體的機率:

P(B)=P(A)P(B|A)+P(AC)P(B|AC)=0.05×0.99+0.95×0.1=0.1445

當雷達偵測到物體是在天上飛的飛機的機率:

P(A|B)=P(AB)P(B)=0.4950.1445=0.34

我們會發現原本當飛機在天上飛時雷達偵測到物體的機率是 0.99 非常高,但反過來當雷達偵測到物體時該物體是在天上飛的飛機的機率卻只有 0.34。

這可以由乘法定律解釋。由乘法定律可知:

P(AB)=P(A)P(B|A)=P(B)P(A|B)從前面得到的結果我們知道
P(B)
P(A)
大約為三倍,所以 0.99 也大約是 0.34 的三倍。

貝氏定律 (Bayes' Rule)

Image Not Showing Possible Reasons
  • The image file may be corrupted
  • The server hosting the image is unavailable
  • The image path is incorrect
  • The image format is not supported
Learn More →

在已知

P(A1),P(A2),P(A3),並且知道分別在
A1,A2,A3
發生時
B
發生的機率
P(B|Ai)
。我們可以用這些條件推得當
B
發生時
A1,A2,A3
哪個事件比較可能發生。

P(Ai|B)=P(AiB)P(B)=P(Ai)P(B|Ai)P(Aj)P(B|Aj)

貝氏定律,主要透過

P(A1),P(A2),P(A3)
P(B|Ai)
的數學模型建立出
P(B)
,而後再由
P(B)
推測
Ai
比較可能出現的機率。

獨立 (Independent)

用途: 當事件獨立時,可將複雜的情況簡化。

原本已知事件

B 的機率,若給定一個事件
A
發生,
B
的機率可能會改變。但若
B
的機率不變,代表
A
發生的資訊對
B
沒有用處,則我們稱這兩個事件
A
B
為獨立事件。

數學定義

  • 直覺的定義:

    P(B|A)=P(B)給定了條件
    A
    發生的條件機率等於原本
    B
    的機率。

  • 一般使用的數學定義:

    P(AB)=P(A)P(B) 證明:
    P(AB)=P(A)P(B|A)=P(A)P(B)


A,B 為獨立事件,則
A,BC
也為獨立事件。

證明:

P(A)=P(AB)+P(ABC)=P(A)P(B)+P(ABC)
P(ABC)=P(A)P(A)P(B)=P(A)(1P(B))=P(A)P(BC)


兩個事件

A,B 沒有交集,則
A,B
不為獨立事件。
Image Not Showing Possible Reasons
  • The image file may be corrupted
  • The server hosting the image is unavailable
  • The image path is incorrect
  • The image format is not supported
Learn More →

數學的解釋:

P(AB)=0P(A)P(B)>0
概念的解釋:
A
出現的資訊告訴我們
B
一定不會出現,代表
A
出現的資訊為有用的資訊會影響
B
的機率。

條件獨立 (Conditional Independent)

既然事件之間的機率存在獨立的關係,我們也可將其延伸到條件機率上,稱之為條件獨立。

當事件

C 發生時
A,B
為獨立事件則條件獨立的數學表示為:
P(AB|C)=P(A|C)P(B|C)

這裡我們知道了獨立與條件獨立,但獨立與條件獨立並無絕對關係,我們並不能肯定若是獨立事件則這些事件在給定某些條件會形成條件獨立,給了條件可能會影響原本事件間的獨立。

以下我們舉一個例子:

給定兩個硬幣,一個是真的硬幣有正(H)反(T)兩面,而另一個是假的硬幣兩面都是正面。選擇一個硬幣投擲 2 次,我們定義下面三個事件:

A: 第一次投擲結果為正面
B
: 第二次投擲結果為正面
C
: 選擇到真正的硬幣

按常理我們知道當

C 發生時
A,B
為條件獨立。

P(A|C)=P(B|C)=0.5
P(A)=P(C)P(A|C)+P(CC)P(A|CC)=0.5×0.5+0.5×1=0.75
P(B)=P(C)P(B|C)+P(CC)P(B|CC)=0.5×0.5+0.5×1=0.75
P(AB|C)=P(A|C)P(B|C)=0.25
P(AB)=P(C)P(AB|C)+P(CC)P(AB|CC)=0.625

由上面的計算我們可知

P(AB)=0.625P(A)P(B)=0.5625所以原本
A,B
不為獨立事件,但當給了條件
C
則為條件獨立。

為什麼

A,B不為獨立事件呢?
直覺上的解釋,當
A
發生代表比較可能拿到假的硬幣 (因為假的硬幣第一次投擲出正面的機率高於真的硬幣),因此
B
的機率也就上升了,也就是說
A
發生的機率對於
B
來說是有用的機率。

成對獨立 (Pairwise Independent)

給定 3 個事件

A1,A2,A3 兩兩獨立則我們稱他們為成對獨立:

P(A1A2)=P(A1)P(A2)
P(A1A3)=P(A1)P(A3)

P(A2A3)=P(A2)P(A3)

而成對獨立並不代表這三個事件都是獨立,也就是說

P(A1A2A3)=P(A1)P(A2)P(A3) 不一定成立。

Example:
投擲 2 個獨立的硬幣,事件

H1 代表第一個投擲是正面,事件
H2
代表第二個投擲是正面。且這兩個事件的機率為:
P(H1)=P(H2)=0.5
。我們另外還有一個事件
C
代表兩個硬幣投擲都是同一面,而
P(C)=0.5

  • C
    對於
    H1
    H2
    都互為獨立嗎?
    首先我們知道
    H1C
    就等同是
    H1H2
    所以我們可以算出其機率:
    P(H1C)=P(H1H2)=P(H1)P(H2)=0.25
    我們可以發現這個機率跟
    P(H1)
    P(C)
    的乘積相等
    P(H1)P(C)=$P(H1C)=0.25
    因此
    C
    H1
    互為獨立。同理也可得知
    C
    H2
    互為獨立 -
    C
    對於
    H1
    H2
    為成對獨立。
  • C,H1,H2
    三者獨立嗎?
    我們知道
    H1H2C
    實際上就是
    H1H2
    所以我們可以算得機率為:
    P(H1H2C)=P(H1H2)=P(H1)P(H2)=0.25

    但這個機率並不等於
    P(H1)P(H2)P(C)=0.125

由上面這兩點我們可以知道成對獨立並不一定等於獨立。

現在讓我們用直覺的方法來解釋這個情況。我們知道

H1 發生的情況
C
發生的機率就是
H2
發生的機率,仍然是 0.5,這代表了
H1
的資訊對
C
來說是沒用的所以
H1,C
為獨立。但我們知道
H1,H2
同時都發生的話,發生
C
的機率就為 1 了。

算數 (Counting)

基本算數原則 (Basic Counting Principle)

我們想建構一個目標,這個目標是透過一系列的處理過程建構而成,假設需透過

r 個不同的階段,而每個階段都有
ni(i=1,...,r)
個選擇,則我們會建構出
n1n2...nr
種不同的目標。

我們用一個範例來介紹基本算數原則。我們有 3 件衣服、4 雙鞋子、2件褲子,則我們可以有

3×4×2=24 種穿搭,其中衣服、鞋子、褲子則對應前面說講的建構目標的一系列階段,而這個目標就是穿搭風格,在每個階段分別有 3, 4, 2 種選擇,則總共會有 24 種不同的穿搭風格。

組合 (Combinations)

給定一個有

n 個元素的集合,我們想計算這個集合中只有
k
個元素的子集合的數量。

定義上面的描述的數學表示式為:

(nk)
雖然定義完了,但我們要怎麼算出
(nk)
也就是子集合的數量呢?

再得出這個答案前,我們先想一個問題。從這

n 個元素的集合中我們只要
k
個元素來排列會有幾種結果?

  • 第一種解法:
    這個問題我們可以用前面所講的基本算數原則來解。要建構出所有的排列結果總共有
    k
    個處理階段,而每個階段又各自有幾種選擇呢?我們在第一個階段可以有
    n
    種選擇,而第二個階段因為第一個階段已經選擇 1 個元素了,所以剩
    n1
    個選擇,依此類推,到第
    k
    個階段則剩
    nk+1
    個選擇。所以總共會有
    n!(nk)!
    種排列結果。

n!(nk)!=n(n1)...(nk+1)

  • 第二種解法:
    先選出
    k
    個元素在做排列。也就是說我們需要知道總共有多少種
    k
    個元素的子集合,並且每個子集合在做排列 (套用基本算數原則),所以種共會有
    (nk)k!
    種排列結果。

由於上面這兩種方法都是得到相同答案,我們可以算出

(nk):
(nk)k!=n!(nk)!
(nk)=n!(nk)!k!

另外列出一些特性:

  • n
    個集合選擇
    n
    個元素的子集合的數量為 1 (就是自己)
    (nn)=1
  • n
    個集合選擇
    0
    個元素的子集合的數量也為 1(空集合只有一個)
    (n0)=1
  • 從 1 到
    n
    個元素的子集合數量的總和為
    2n
    (所有的子集合數量)
    k=0n(nk)=2n

二項式機率 (Binomail Probability)

(nk) 也就是我們在多項式所熟知的二項式係數得值。
(x+1)n=(nn)xn+(nn1)xn1+...+(nk)xk+...+(n0)

假設有

n1 次獨立的硬幣投擲,且正面的機率為
P(H)=p
。二項式機率所要探討的問題就是這
n
次投擲中有
k
次正面的機率
P(kH)

首先我們可以算出特定的

k 次正面的投擲序列的機率:
P(particular kH sequence)=pk(1p)nk
而我們要得到的是所有
n
次投擲中有
k
次正面的機率。每個特定的
k
次正面的投擲序列的機率都是一樣的,所以我們只要再乘上
n
次投擲中有
k
次正面的數量,也就是
(nk)
,所以
P(kH)=(nk)pk(1p)nk

分割 (Partition)

將有

n 個元素的集合,拆分成
r
個子集合且每個子集合有
ni(i=1,...,r)
個元素,有
C
種分法,
C=

我們引用跟前面算出

(nk) 一樣的概念,計算
n
個元素的排列方法總數:
n!=Cn1!n2!...nr!C=n!n1!n2!...nr!

相較於二項式係數

(nk)=n!(nk)!k!
C=n!n1!n2!...nr!
稱作多項式係數 (multinomial coefficient),而多項式係數對應到的多項式機率則為:
P(n1,n2,...,nr)=n!n1!n2!...nr!pn1pn2...pnr

隨機變數 (Random Variable)

隨機變數是一個函數,此函數將機率性實驗的結果對應一個值。也就是說,隨機變數是一個函數將樣本空間對應到實數域。

數學符號

X 代表隨機變數,而
x
代表對應的實數。

隨機變數有下面幾個特性:

  • 一個樣本空間可以定義多種隨機變數
  • 隨機變數經過函數轉換後仍為隨機變數,例如:
    X+Y
    仍為隨機變數

機率質量函數 (PMF: Probability Mass Function)

隨機變數的值是由機率性實驗的結果決定的,我們可能會想知道哪個隨機變數的值比較有可能出現,而機率質量函數就是用來描述隨機變數的機率分佈的方法。

假設一個樣本空間有 4 個事件

a,b,c,d,每個事件的機率為 0.25 且每個事件分別對應的實數如下圖所示,則隨機變數
X=5
的機率為
pX(5)=0.5

pX(x)=P(X=x)=P({ωΩ s.t. X(ω)=x})

機率質量函數的特性和前面講述機率的特性一樣:

  • 任何隨機變數的機率質量函數必為正數
    pX(x)0
  • 由於所有實驗結果的機率總和為 1,所有隨機變數的機率質量函數的值總和也必為 1
    xpX(x)=1

隨機變數的獨立性

如同前面講述事件時有獨立性,隨機變數也有獨立性。對於兩個隨機變數

X
Y
,若這兩個隨機變數互為獨立則對於所有隨機變數
X
Y
所映射的值
x
y
,其獨立的定義與獨立事件相似:

P(X=x and Y=y)=P(X=x)P(Y=y)

也就是說,我們不管今天得到隨機變數的什麼結果都不影響另一個隨機變數的結果。

在這裡我們要順便引入一個數學表示 - 聯合機率質量函數 (Joint PMF)。

P(X=x and Y=y)=pX,Y(x,y)

這邊

pX,Y(x,y) 就是聯合機率質量函數。

伯努利隨機變數 (Bernoulli Random Variable)

將樣本空間的事件對應到 0 跟 1,一個機率是

p 則另一個機率為
1p

伯努利隨機變數的參數

p[0,1]
X={1,w.p. p0,w.p. 1p
此隨機變數的 PMF:
pX(0)=1p,pX(1)=p

離散均勻隨機變數 (Discrete Random Variable)

將樣本空間的事件對應到數值

a
b
並且每個事件的機率都相等。

離散均勻隨機變數的參數

a,b(ab)
p[0,1]
X={a,w.p. 1ba+1...b,w.p. 1ba+1

二項式隨機變數 (Binomial Random Variable)

我們可以用下面這種樣本空間來描述二項式隨機變數

Ω:{0,...,n 次出現硬幣正面的次數}

二項式隨機變數的參數

n,p[0,1]
X={0,w.p. (n0)p0(1p)n...n,w.p. (nn)pn(1p)0

此隨機變數的 PMF:

pX(k)=(nk)pk(1p)nk

幾何隨機變數 (Geometric Random Variable)

幾何隨機變數描述的等待成功的模型,也就是說在執行第

n 次才成功的模型,其中每次的執行都是獨立的。

幾何隨機變數的參數

p(0<p1)
X={1,w.p. (1p)1p...n,w.p. (1p)n1p

此隨機變數的 PMF:
pX(k)=(1p)k1p

pX()=0 由此隨機變數我們可以推得一事件永遠不成功的機率為 0。

期望值 (Expectation)

在這裡我們主要講的是隨機變數的期望值,也就是要知道隨機變數的平均。隨機變數的期望值的數學表示為:

E[X]=xxpX(x)

期望值的特性

  • X0E[X]0

    由期望值的數學表示我們知道期望值是由隨機變數映射的值
    x
    乘上其對應的機率
    pX(x)
    ,因為機率恆大於等於 0 所以一旦隨機變數映射的值都是大於等於 0 則期望值必定也大於等於 0。
  • aXbaE[X]b

    我們知道所有的
    axb
    所以我們可以推出下面的結果:

E[X]=xxpX(x)axpX(x)=a
E[X]=xxpX(x)bxpX(x)=b

  • c 為常數 (不是隨機變數)
    E[c]=c

    其實常數可看為一個隨機變數只映射到單一值 (
    c
    ) 所以其機率為 1,因此此常數的期望值就是自己。

  • 假設一個隨機變數

    Y 為另一個隨機變數
    X
    的函數轉換
    Y=g(X)E[Y]=xg(x)pX(x)

    證明:
    yx:g(x)=yg(x)pX(x)=yyx:g(x)=ypX(x)=yypY(y)

    首先
    yx:g(x)=y
    也就是要加總所有的
    g(x)pX(x)
    x
    能經過
    g()
    轉換成
    y
    。而
    x:g(x)=ypX(x)=pY(y)
    我們可以用下面這張圖解釋:

    也就
    Y
    的機率等於原本
    X
    會轉換到對應的
    Y
    的機率的加總。

  • E[aX+b]=aE[X]+b - 期望值也能線性運算
    Y=g(X)=aX+b
    ,我們可推得
    E[Y]=aE[X]+b
    。我們可以發現在線性函數
    E[g(X)]=g(E[X])

全期望值定理 (Total Expectation Theorem)

前面再講條件機率時,我們有提到一個事件的機率可以由一系列給定的條件發生時此事件發生的機率乘上給定的條件發生的機率,也就是:

P(B)=P(Ai)P(B|Ai)
當時的我們還並未講述隨機變數的概念,而現在我們可以改用隨機變數的表示方法來改寫這個式子,我們把事件
B
改用隨機變數來表示:
pX(x)=P(Ai)pX|Ai(x)

這邊改用隨機變數表示可以理解為在事件

B 所在的樣本空間用隨機變數
X
將事件映射為
x
的實數值,所以事件
B
也會映射為實數域上的
x
值。

接著我們對這個改寫後的等式兩邊帶入取期望值的公式:

xpX(x)=P(Ai)xpX|Ai(x)
等式左邊便是隨機變數
X
的期望值,而等式右邊則是隨機變數
X
在給定條件事件
Ai
發生時的期望值,我們用
E[X|Ai]
表示:
E[X]=P(Ai)E[X|Ai]

這也就表示一個隨機變數的期望值也可以由一系列給定條件發生時的隨機變數的期望值乘上給定的條件的發生機率組成。

這邊用『一系列』這個詞並不明確,『一系列』代表的是這些條件的發生機率總合為 1。

接下來我們來算出前面所提到的隨機變數的期望值。

伯努利隨機變數的期望值

X={1,w.p. p0,w.p. 1p努利隨機變數將事件分為兩類,其對應的值是 0 跟 1,其期望值為:
E[X]=1p+0(1p)=p

伯努利隨機變數將事件結果映射到 0 和 1,所以期望值就是被映射到 1 的事件的發生機率。

離散均勻隨機變數的期望值

在這裡我們使用跟前面不同的表示方法,減少變數以方便表示。我們把前面離散均勻隨機變數將事件映射到

a
b
改成
0
n
,所以每個事件的機率為
1n+1

X={0,w.p. 1n+1...n,w.p. 1n+1
離散均勻隨機變數的每個事件機率都相同,其期望值為:
E[X]=0+1n+1+...+n1n+1=1n+1(1+...+n)=n2
其中
1+...+n=n(n+1)2

若要用前面事件映射的值為

a
b
來看的話其實也就是
E[X]=ba2
,因為
n=ba

二項式隨機變數的期望值

X={0,w.p. (n0)p0(1p)n...n,w.p. (nn)pn(1p)0
由期望值的定義我們可以列出:
E[X]=k=1nk(nk)pk(1p)nk

使用公式去計算前,我們可以回想一下其實二項式隨機變數是由
n
個獨立的伯努利隨機變數組成。
假設
Y
為伯努利隨機變數,則:
X=i=1nYi
E[X]=i=1nE[Yi]=np

幾何隨機變數的期望值

X={1,w.p. (1p)1p...n,w.p. (1p)n1p

由期望值的定義我們可以列出:

E[X]=k=1k(1p)k1p

但我們會發現若要直接用上面的式子計算出結果會非常困難,因此我們可以引入全期望值定理把

E[X] 拆成一塊一塊解:

E[X]=11+E[X1]=21+pE[X1|X=1]+(1p)E[X1|X>1]=31+0+(1p)E[X]

  1. 由前面提過的期望值的特性我們可以將
    E[X]
    拆成
    1+E[X1]

    在物理意義上,我們可以理解為我們已經執行了一次實驗不管結果如何 (也就是 1) 再加上剩下的實驗的期望值 (也就是
    E[X1]
    )。
  2. 由全期望值定理,
    E[X1]
    可被分成兩部分
    pE[X1|X=1]
    以及
    (1p)E[X1|X>1]
    ,分別為第一次就成功跟第一次沒有成功。
  3. 若第一次就成功則不會有後面的實驗,因此
    E[X1|X=1]=0
    。而
    E[X1|X>1]
    仍然是幾何隨機變數的期望值,所以
    E[X1|X>1]=E[X]

為什麼

E[X1|X>1]=E[X] ?
因為幾何隨機變數每次執行都是獨立的。試想
X1=3
的情況,
X>1
的條件其實就是第一次一定失敗所以在
X1=3
的情況下還需要失敗兩次再成功 (因為
X=4
),所以
P(X1=3|X>1)
就會等同是
P(F2F3H4|F1)
,而又我們知道因為每次的成功失敗都是獨立的所以可簡化為
P(F2F3H4)
。最後這其實不就是前面失敗了兩次執行了第三次才成功的機率嗎,所以等同
P(X=3)

由上面的計算可得出幾何隨機變數的期望值為:

E[X]=1p

獨立與期望值

若隨機變數

X
Y
互為獨立,則
E[XY]=E[X]E[Y]
E[g(X)h(Y)]=E[g(X)]E[h(Y)]

證明:

E[XY]=xyxypX,Y(x,y)=xyxypX(x)pY(y)=xxpX(x)yypY(y)=E[X]E[Y]

變異數 (Variance)

前面我們提的期望值告訴我們隨機變數的平均值。現在,我們將介紹變異數 - 用來量化隨機變數分布的集中或分散的程度。

首先,我們已經知道如何計算一個隨機變數的平均值,我們在這用

μ=E[X] 來表示隨機變數的平均值。而現在我們想知道究竟這個隨機變數上的值平均都距離這個平均值多遠,也就是要算
Xμ
的期望值
E[Xμ]
。然而我們會發現這樣計算的結果會是 0,很明顯的因為隨機變數的值是分散在平均值的兩側的,所以
Xμ
有正負之分。若要不看正負號,我們可以很簡單的直接取
Xμ
的平方再算期望值即可。而這就是變異數。

因此變異數的定義為:

var(X)=E[(Xμ)2]也可以寫成:
var(X)=E[X2]μ2
證明:
E[(Xμ)2]=E[X22μX+μ2]=E[X2]2μE[X]+μ2=E[X2]μ2

那怎麼算這個期望值呢?

E[(Xμ)2] 其實也就可以看成是
E[g(X)]
,而這個
g(X)=(Xμ)2
。由前面期望值的特性我們可以知道
E[g(X)]=g(x)pX(x)
,所以:
var(X)=(xμ)2pX(x)

但實際上變異數是取距離的平方為單位,並非以距離為單位。因此我們另外定義了一個數學表示 - 標準差 (Standard deviation):

σX=var(X) 標準差是將變異數開根號,從而將原本是以距離的平方為單位的變回以距離的單位。

變異數的特性

  • 變異數並不像期望值有線性的特性,反而是如下的特性:
    var(aX+b)=a2var(X)
    我們先證明為什麼隨機變數加上常數後取變異數常數項會消失。首先定義隨機變數
    Y=X+b
    ,所以
    E[Y]=μ+b

    var(Y)=E[(Y(μ+b))2]=E[(X+b(μ+b))2]=E[(Xμ)2]=var(X)
    接著我們來證明為什麼隨機變數乘上常數後取變異數常數項會變成平方。首先定義隨機變數
    Y=aX
    ,所以
    E[Y]=aμ

    var(Y)=E[(Yaμ)2]=E[(aXaμ)2]=a2E[(Xμ)2]=a2var(X)

    這樣的特性我們可以用其物理意義來解釋。我們知道變異數的概念是隨機變數分布的集中或分散的程度的量化,它是隨機變數的值與其平均值的距離的平方,而這個距離平方並不隨著隨機變數的左右平移 (也就是加減常數值) 而改變,所以隨機變數加上常數值再取變異數並不會改變。另外隨機變數乘上常數會使的距離變為常數倍,但因為變異數的單位是距離的平方所以隨機變數乘上常數再取變異數,會導致常數倍數也會跟著平方。
  • 一般來說兩個隨機變數相加的變異數並不等於各自取變異數後再相加:
    var(X+Y)var(X)+var(Y)
    但若兩個隨機變數為獨立,則:
    var(X+Y)=var(X)+var(Y)

伯努利隨機變數的變異數

前面我們已經知道伯努利隨機變數的定義

X={1,w.p. p0,w.p. 1p以及計算過其期望值
E[X]=p
現在我們要用變異數的定義來得到伯努利隨機變數的變異數。
var(X)=E[(XE[X])2]=(xE[X])2pX(x)=(1p)2p+(0p)2(1p)=p(1p)
由上面得出的變異數我們能發現,當
p=0.5
變異數有最大值。這說明了一件事,某種層面來看變異數也能作為測量隨機變數的隨機性。當伯努利隨機變數的機率參數為 0.5 時有最好的隨機性。

離散均勻隨機變數的變異數

已知離散均勻隨機變數的定義

X={0,w.p. 1n+1...n,w.p. 1n+1以及計算過其期望值
E[X]=n2
現在我們要用變異數的定義來得到伯努利隨機變數的變異數,我們用第二種變異數的表示法:
var(X)=E[X2]E[X]2=1n+1(02+12+...+n2)n24=1n+1(16n(n+1)(2n+1))n24=112n(n+2)

二項式隨機變數的變異數

我們一開始一樣列出二項式隨機變數的定義

X={0,w.p. (n0)p0(1p)n...n,w.p. (nn)pn(1p)0計算變異數就跟我們前面計算期望值的概念一樣,我們知道二項式隨機變數其實就是
n
個獨立的伯努利隨機變數組成,也就是
X=X1+...+Xn
,其中
Xi
就是第
i
次 (單次) 執行成功的伯努利隨機變數,其中我們由變異數的特性我們知道
var(X)=var(X1+...+Xn)=var(X1)+...+var(Xn)
所以二項式隨機變數的變異數為:
var(X)=np(1p)

幾何隨機變數的變異數

對於幾何隨機變數的變異數,我們在這需要微積分的概念。我們已知幾何隨機變數的期望值為

E[X]=1p,接著我們要算的是
E[X2]
。計算
E[X2]
我們需要一些特殊的解法,我們首先要先解
E[X(X1)]
E[X(X1)]=x=1x(x1)p(1p)x1=1pqx=1x(x1)qx2=2pqx=1d2dq2qx=3pqd2dq2(x=1qx)=4pqd2dq2(q1q)=2(1p)p2

  1. q=1p
    ,並多提一個
    q
    x=1
    的左邊讓裡面是
    qx2
  2. x(x1)qx2
    其實就是微積分裡面的
    qx
    q
    做兩次微分。
  3. 微分跟
    x=1
    是可互換的。
  4. 無窮等比級數
    x=1qx=q1q

    證明:
    首先令
    A=x=1qx
    ,我們在等式的兩邊都乘上
    q
    qA=qx=1qx
    ,而後我們將兩等式相減得
    AqA=qA=q1q

上面我們得到了

E[X(X1)],而
E[X(X1)]=E[X2]E[X]
,因此我們可以得到變異數
var(X)=E[X2]E[X]2=E[X(X1)]+E[X]E[X]2=2(1p)p2+1p1p2=1pp2

我們一樣可以用微積分的概念回頭去解幾何隨機變數的期望值。