# 1224 建構論與貝氏理論
## 109152512 教育博一 蔡介文
{%hackmd @yukai/medium-theme %}
###### tags: `InsTruc2020`
:::success
target paper:
- Gopnik, A., & Wellman, H. M. (2012). Reconstructing constructivism: Causal models, Bayesian learning mechanisms, and the theory theory. *Psychological Bulletin, 138*(6), 1085-1108.
:::
## 一、主要論點
本篇主要在修正所謂的「理論的理論」(theory theory),這是指建構論學者的一套關於認知發展和概念結構的想法。本篇從機率因果模型(probabilistic causal models)與貝氏學習(Bayesian learning)的架構去思考。並提出幾種值得參考的==實驗設計方式==。
#### 貝氏定理
本文中提到的貝氏定理,這個公式的原型如下:
以下部分參酌邱皓政(2020)貝氏統計的專書。在貝氏定理中,個變數說明如下:
- $y$ 為研究者實際觀測到的觀察資料。觀察資料形成的分佈即為抽樣分佈(sampling distribution)$P(y)$。
- $\theta$ 為未知的參數。而在實際觀測之前則假定 $\theta$ 是隨機變數,且機率分佈為 $P(\theta)$,稱為「事前分佈」(prior distribution) 。
- 在給定觀察資料 $y$ 後,未知參數 $\theta$ 為多少,這是研究者所好奇的。這個機率分佈以 $P(\theta|y)$ 表示,稱為事後分佈(posterior distribution)
- 在 $\theta$ 的前提下(未知的前提下),$y$ 隨之變動函數在此處定義為概似函數或概似分佈(liklihood distribution),$P(y|\theta)$。
$$P(\theta|y) = \dfrac{P(\theta, y)}{P(y)}
= \dfrac{P(y|\theta)P(\theta)}{P(y)} $$
:::info
所以貝氏定理用文字描述就是:「$事後分佈 \propto 概似分佈 \times 事前分佈$」
$$P(\theta|y) \propto P(y|\theta)P(\theta)$$
:::
(這邊都是機率分佈的形式)
## 二、延伸思考
- 關於貝氏統計是我一直想學習但是還沒有時間深入探究的領域。據我的了解,在因果推論以及大部分的心理計量模型上,都已經有(成熟到足以出專書程度的)貝氏網路或是貝氏估計方法的應用( 邱皓政,2020;Levy & Mislevy, 2016)。我在想貝氏的應用應該會越來越廣。
- 關於本篇談到的統計/機器學習模型(這兩者的內涵是一樣的,事實上機器學習最著名的教科書之二就是 The elements of statistical learning (ESL) 與 An introduction to statistical learning (ISL))。而這邊所謂的「學習」指得的是參數的優化、只是一種比喻。我想單純以「機器學習」這個範圍的「學習」,比起人類的學習還有一段距離(深度學習/神經網路模型也許稍微能攀比)。而真正要模擬人類/生物的學習,恐怕還是得往計算認知、或計算神經科學等方面研究吧?
## 三、延伸閱讀
- Levy, R., & Mislevy, R. J. (2016). *Bayesian psychometric modeling*. CRC Press.
- 邱皓政(2020)。**貝氏統計:原理與應用**。臺北市:雙葉書廊。
- 楊士慶、陳耀茂(2018)。**貝氏統計導論:EXCEL應用**。臺北市:五南。
- [統計學,最強的商業武器:從買樂透到大數據,全都離不開統計學;不懂統計學,你就等著被騙吧!](https://search.books.com.tw/redirect/move/key/%E7%B5%B1%E8%A8%88%E5%AD%B8+%E6%9C%80%E5%BC%B7%E7%9A%84%E5%95%86%E6%A5%AD%E6%AD%A6%E5%99%A8/area/mid/item/0010632686/page/1/idx/6/cat/001/pdf/0)
- [機率思考:大數據時代,不犯錯的決斷武器](https://www.books.com.tw/products/0010743868?sloc=main)
- 維基百科的[貝氏定理](https://zh.wikipedia.org/wiki/%E8%B4%9D%E5%8F%B6%E6%96%AF%E5%AE%9A%E7%90%86)
- Hastie, T., Tibshirani, R., & Friedman, J. (2009). *The elements of statistical learning: data mining, inference, and prediction*. Springer Science & Business Media.
- James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). *An introduction to statistical learning*. New York: springer.